JP2012093508A - Voice recognition support system, voice recognition support device, user terminal, method and program - Google Patents

Voice recognition support system, voice recognition support device, user terminal, method and program Download PDF

Info

Publication number
JP2012093508A
JP2012093508A JP2010239928A JP2010239928A JP2012093508A JP 2012093508 A JP2012093508 A JP 2012093508A JP 2010239928 A JP2010239928 A JP 2010239928A JP 2010239928 A JP2010239928 A JP 2010239928A JP 2012093508 A JP2012093508 A JP 2012093508A
Authority
JP
Japan
Prior art keywords
location
speech recognition
information
speech
place
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010239928A
Other languages
Japanese (ja)
Other versions
JP5370335B2 (en
Inventor
Takahiro Yoshimura
貴博 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010239928A priority Critical patent/JP5370335B2/en
Publication of JP2012093508A publication Critical patent/JP2012093508A/en
Application granted granted Critical
Publication of JP5370335B2 publication Critical patent/JP5370335B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce errors of voice recognition result of voice which is input at a place where a user inputs the voice for voice recognition while being out etc.SOLUTION: A voice recognition support system comprises: place recognition result accuracy information output means 501 for outputting place information indicating the place and information indicating accuracy of the voice recognition result on the place in association with each other; and voice recognition place fitness information output means 502 for outputting information on whether the place specified for inputting the voice to be recognized is fit for the voice recognition or not on the basis of the place information and the information indicating the accuracy of the voice recognition result output by the place recognition result accuracy information output means.

Description

本発明は、ある場所が音声認識に適した場所か否かの情報を提供することで利用者の音声認識を支援する音声認識支援システム、音声認識支援装置、利用者端末、方法およびプログラムに関する。   The present invention relates to a voice recognition support system, a voice recognition support device, a user terminal, a method, and a program that support a user's voice recognition by providing information on whether a certain place is suitable for voice recognition.

コールセンタなどでは問い合わせによる応対内容である通話を音声認識し、その結果のテキストを活用してCS向上策の検討などに役立てている。近年、携帯電話機・スマートフォンなど携帯機器が広がってきたこともあり、携帯機器に話した音声を音声認識して活用する流れが生まれてきている。例えば、外回りの営業員が商談後に商談内容を携帯機器に話し、音声認識したテキストをネットワーク経由でサーバに保存しておいて帰社後の日報作成の効率化につなげるなどである。   A call center or the like recognizes a call, which is a response to an inquiry, by voice, and uses the resulting text to study CS improvement measures. In recent years, mobile devices such as mobile phones and smartphones have spread, and there is a trend to recognize voices spoken to mobile devices and use them. For example, after an outside salesperson talks about the contents of a business talk to a mobile device after the business talk, the voice-recognized text is stored on a server via the network, which leads to more efficient daily report creation after returning home.

しかし、コールセンタのような屋内とちがい、携帯機器の主な利用場である屋外では、場所によってはたえず騒音が発生している場所もあり、このような場所で話した音声には雑音が混入されて音声認識の結果に悪影響がでる、すなわち誤りが大きくなるという課題があった。なお、雑音の混入は屋外に限らず、例えば、屋内であってもコールセンタのように予め録音することを想定しているような場所は少なく、特にこれまで行ったことのない場所では、その場所が音声認識に適しているか否かがわからないために、その場所で残した音声に予想以上の雑音が混入されて音声認識の結果に悪影響がでるという課題があった。   However, unlike indoors such as call centers, there are places where noise is constantly generated depending on the location outdoors, which is the main use place for mobile devices, and noise is mixed in the voice spoken in such places. Therefore, there is a problem that the result of speech recognition is adversely affected, that is, errors are increased. In addition, noise is not limited to the outdoors. For example, even indoors, there are few places that are supposed to be recorded in advance such as a call center, especially in places that have not been done so far. Since it is not known whether or not is suitable for speech recognition, there is a problem in that the speech remaining in the place is mixed with noise more than expected and the result of speech recognition is adversely affected.

対策の一つに、携帯機器内に雑音を除去する装置を物理的にいれこむ手法(例えば、特許文献1)がある。   As one of countermeasures, there is a technique (for example, Patent Document 1) in which a device for removing noise is physically inserted in a portable device.

特開平09−252268号公報JP 09-252268 A

しかし、特許文献1に記載されているような手法は、全ての携帯機器に組み込まれているわけではなく汎用性が低かった。   However, the technique as described in Patent Document 1 is not incorporated in all portable devices and has low versatility.

そこで、本発明は、利用者が外出先等で音声を入力して音声認識を行う場合においてその場所で入力された音声の音声認識結果の誤りを低減することができる音声認識支援システム、音声認識支援装置、利用者端末、方法およびプログラムを提供することを目的とする。   Therefore, the present invention provides a speech recognition support system and speech recognition that can reduce errors in speech recognition results of speech input at a place when the user performs speech recognition by inputting the speech while away from home. An object is to provide a support device, a user terminal, a method, and a program.

本発明による音声認識支援システムは、場所を示す場所情報と、場所についての音声認識結果の精度を示す情報とを対応づけて記憶する記憶手段と、記憶手段に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力手段とを備えたことを特徴とする。   The speech recognition support system according to the present invention includes location information indicating a location and information indicating the accuracy of a speech recognition result for the location in association with each other, and location information stored in association with the storage means. Speech recognition location suitability information output means for outputting information indicating whether or not a location designated as a location for inputting speech to be recognized is suitable for speech recognition based on the information indicating the accuracy of the speech recognition result. It is characterized by having.

また、本発明による音声認識支援装置は、場所を示す場所情報と、場所についての音声認識結果の精度を示す情報とを対応づけて記憶する記憶手段と、記憶手段に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力手段とを備えたことを特徴とする。   The speech recognition support apparatus according to the present invention stores location information indicating a location and information indicating accuracy of a speech recognition result for the location in association with each other, and is stored in association with the storage means. Based on the location information and the information indicating the accuracy of the speech recognition result, the speech recognition location suitability information output means for outputting information as to whether or not the location designated as the location for inputting the speech to be recognized is suitable for speech recognition. It is characterized by comprising.

また、本発明による利用者端末は、認識対象の音声を入力する場所とされる場所情報が入力された場合に、場所情報を所定のサーバ装置に送信して、場所情報と対応づけられている場所についての音声認識結果の精度を示す情報を受信する場所認識結果精度情報受信手段と、場所情報と、場所認識結果精度情報受信手段が受信した場所についての音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力手段とを備えたことを特徴とする。   In addition, the user terminal according to the present invention associates location information with location information by transmitting location information to a predetermined server device when location information, which is a location for inputting recognition target speech, is input. Location recognition result accuracy information receiving means for receiving information indicating the accuracy of the speech recognition result for the location, location information, and information indicating the accuracy of the speech recognition result for the location received by the location recognition result accuracy information receiving means. And a voice recognition place suitability information output means for outputting information as to whether or not a place designated as a place for inputting the speech to be recognized is suitable for voice recognition.

また、利用者端末は、認識対象の音声を入力する場所とされる場所情報が入力された場合に、入力された場所情報が示す場所で入力された音声に対する音声認識結果の精度を示す情報を収集する音声認識結果精度情報収集手段と、場所情報と、音声認識結果精度情報収集手段によって収集された音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力手段とを備えていてもよい。   In addition, when the location information that is the location for inputting the speech to be recognized is input, the user terminal displays information indicating the accuracy of the speech recognition result for the speech input at the location indicated by the input location information. Based on the voice recognition result accuracy information collecting means to collect, the location information, and the information indicating the accuracy of the voice recognition result collected by the voice recognition result accuracy information collecting means, it is designated as the place to input the speech to be recognized. Voice recognition location suitability information output means for outputting information on whether or not the location is suitable for speech recognition may be provided.

また、本発明による音声認識支援方法は、場所を示す場所情報と、場所についての音声認識結果の精度を示す情報とを対応づけて所定の記憶装置に記憶しておき、記憶装置に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力することを特徴とする。   In addition, the speech recognition support method according to the present invention associates location information indicating a location with information indicating accuracy of a speech recognition result for the location in a predetermined storage device, and associates the information with the storage device. Based on the stored location information and information indicating the accuracy of the speech recognition result, information indicating whether or not the location designated as the location for inputting the speech to be recognized is suitable for speech recognition is output. And

また、本発明による音声認識支援プログラムは、コンピュータに、場所を示す場所情報と、場所についての音声認識結果の精度を示す情報とを対応づけて所定の記憶装置に記憶させる記憶処理、および認識対象の音声を入力する場所とされる場所情報が入力された場合に、記憶装置に記憶されている指定された場所についての音声認識結果の精度を示す情報を出力する場所認識結果精度情報出力処理実行させることを特徴とする。   Further, the speech recognition support program according to the present invention includes a storage process in which a computer stores location information indicating a location and information indicating the accuracy of a speech recognition result for the location in a predetermined storage device, and a recognition target Execution of location recognition result accuracy information output processing for outputting information indicating the accuracy of the speech recognition result for the designated location stored in the storage device when location information that is assumed to be a location for inputting voice is input It is characterized by making it.

また、音声認識支援プログラムは、コンピュータに、場所を示す場所情報と、場所についての音声認識結果の精度を示す情報とを対応づけて所定の記憶装置に記憶させる記憶処理、および記憶装置に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力処理を実行させてもよい。   Further, the voice recognition support program causes the computer to store the location information indicating the location and the information indicating the accuracy of the voice recognition result for the location in association with each other and store the information in a predetermined storage device, and the storage device Speech recognition that outputs information indicating whether or not the location specified as the location to which the speech to be recognized is input is suitable for speech recognition based on the location information stored and the information indicating the accuracy of the speech recognition result The place suitability information output process may be executed.

また、音声認識支援プログラムは、コンピュータに、認識対象の音声を入力する場所とされる場所情報が入力された場合に、場所情報を所定のサーバ装置に送信して、場所情報と対応づけられている場所についての音声認識結果の精度を示す情報を受信する受信処理、および場所情報と、受信した場所についての音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力処理を実行させてもよい。   Further, the speech recognition support program transmits location information to a predetermined server device and associates the location information with the location information when location information, which is a location for inputting speech to be recognized, is input to the computer. As a place to input the speech to be recognized based on the reception process for receiving information indicating the accuracy of the speech recognition result for the location, and the location information and the information indicating the accuracy of the speech recognition result for the received location A voice recognition place suitability information output process for outputting information on whether or not the designated place is suitable for voice recognition may be executed.

また、音声認識支援プログラムは、コンピュータに、認識対象の音声を入力する場所とされる場所情報が入力された場合に、入力された場所情報が示す場所で入力された音声に対する音声認識結果の精度を示す情報を収集する収集処理、および場所情報と、収集された音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力処理実行させてもよい。   In addition, the speech recognition support program, when the location information that is the location where the speech to be recognized is input is input to the computer, the accuracy of the speech recognition result for the speech input at the location indicated by the input location information Whether the location specified as the location where the speech to be recognized is input is suitable for speech recognition based on the collection process that collects information indicating the location and the location information and the information indicating the accuracy of the collected speech recognition results A voice recognition place suitability information output process for outputting information on whether or not may be executed.

本発明によれば、利用者が外出先等で音声を入力して音声認識を行う場合においてその場所で入力された音声の音声認識結果の誤りを低減することができる。   ADVANTAGE OF THE INVENTION According to this invention, when a user inputs a voice | voice in the place of going out and performs voice recognition, the error of the voice recognition result of the voice input at the place can be reduced.

音声認識支援システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of a speech recognition assistance system. 音声認識支援サーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a speech recognition assistance server. 利用者端末の構成例を示すブロック図である。It is a block diagram which shows the structural example of a user terminal. 音声認識処理の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of a speech recognition process. 認識結果テキスト表示処理の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of a recognition result text display process. 認識結果テキスト修正処理の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of a recognition result text correction process. 音声認識適合スコア計算処理の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of a speech recognition conformity score calculation process. 音声認識適合場所判断処理の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of a speech recognition conformity place judgment process. 最寄最適場所提示処理の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the nearest optimal place presentation process. 利用者DB19が保持する利用者テーブルの一例を示す説明図である。It is explanatory drawing which shows an example of the user table which user DB19 hold | maintains. 音声認識結果DB17が保持する音声認識結果テーブルの一例を示す説明図である。It is explanatory drawing which shows an example of the speech recognition result table which speech recognition result DB17 hold | maintains. 音声認識適合場所DB18が保持する認識場所テーブルの一例を示す説明図である。It is explanatory drawing which shows an example of the recognition place table which voice recognition conformity place DB18 hold | maintains. 音声認識結果DB17が保持する認識結果修正履歴テーブルの一例を示す説明図である。It is explanatory drawing which shows an example of the recognition result correction history table which voice recognition result DB17 hold | maintains. (a)は認識結果テキスト一覧ページの一例を示す説明図であり、(b)は認識結果テキスト修正ページの一例を示す説明図である。(A) is explanatory drawing which shows an example of a recognition result text list page, (b) is explanatory drawing which shows an example of a recognition result text correction page. 音声認識適合スコア計算処理の各ステップの具体例を示す説明図である。It is explanatory drawing which shows the specific example of each step of a speech recognition conformity score calculation process. 本発明の概要を示すブロック図である。It is a block diagram which shows the outline | summary of this invention. 本発明による音声認識支援システム500の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the speech recognition assistance system 500 by this invention.

実施形態1.
以下、本発明の実施形態を図面を参照して説明する。まず、本実施形態について概要を説明する。本実施形態は、利用者が音声を残そうとしている場所、すなわち認識対象の音声が入力(録音)される場所が音声認識に適した場所か否かの情報を提供する。さらに、認識対象の音声が入力される場所が音声認識に適していないと判定した場合には、最寄りの適した場所の情報を提供する。このような情報提供を行うことによって、最寄りの適した場所への移動等を促すことができ、結果として雑音の混入を防ぎ音声認識結果の誤りを低減させることができる。なお、音声認識に適した場所とは、その場所で入力された音声に対して音声認識を行った場合に、高い精度で音声認識結果が得られる場所をいう。なお、高い精度で音声認識結果が得られるとは、例えば、話した音声が正確なテキストに変換されて出力されることである。
Embodiment 1. FIG.
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, an outline of the present embodiment will be described. The present embodiment provides information as to whether or not the place where the user wants to leave the voice, that is, the place where the voice to be recognized is input (recorded) is a place suitable for voice recognition. Further, when it is determined that the place where the speech to be recognized is input is not suitable for speech recognition, information on the nearest suitable place is provided. By providing such information, it is possible to prompt the user to move to the nearest suitable place, and as a result, it is possible to prevent noise from being mixed and reduce errors in the speech recognition result. Note that a place suitable for voice recognition refers to a place where a voice recognition result can be obtained with high accuracy when voice recognition is performed on voice input at that place. Note that a speech recognition result is obtained with high accuracy means that, for example, spoken speech is converted into accurate text and output.

例えば、外回りをしている営業員が外で音声を入力してその音声に対して音声認識処理を行う場合を想定する。音声認識が誤る原因としては、話した言葉が辞書に存在しているかどうかやクリアな音かどうかなどがあるが、仮に雑音が混入していないクリアな音かどうかが音声認識の精度に大きく影響を与えると仮定すると、当然雑音が混入しない環境ほど音声認識の誤りは少ない。すなわち、音声認識処理の際に推定された雑音レベルや、利用者が音声認識結果に対して行った修正量が多いほど、音声認識に適していない場所で音声を残したと考えることができる。   For example, a case is assumed in which a salesperson who goes around enters a voice outside and performs voice recognition processing on the voice. Possible causes of speech recognition errors include whether the spoken word is present in the dictionary or whether it is a clear sound, but if it is a clear sound that does not contain noise, it has a significant effect on the accuracy of speech recognition. As a matter of course, there are fewer errors in speech recognition in an environment where noise is not mixed. That is, it can be considered that as the noise level estimated at the time of the voice recognition process or the amount of correction performed on the voice recognition result by the user increases, the voice is left in a place that is not suitable for voice recognition.

図1は、本実施形態の音声認識支援システムの構成例を示すブロック図である。図1に示すように、本実施形態の音声認識支援システムは、音声認識支援サーバ100と、1つ以上の利用者端末(本例では、利用者端末301、302、303)とを備える。なお、音声認識支援サーバ100と各利用者端末とは、それぞれネットワーク200を介して接続されているものとする。   FIG. 1 is a block diagram illustrating a configuration example of a voice recognition support system according to the present embodiment. As shown in FIG. 1, the speech recognition support system of this embodiment includes a speech recognition support server 100 and one or more user terminals (in this example, user terminals 301, 302, and 303). It is assumed that the voice recognition support server 100 and each user terminal are connected via the network 200, respectively.

また、図2は、音声認識支援サーバ100の構成例を示すブロック図である。図2に示すように、音声認識支援サーバ100は、音声認識部11と、認識結果テキスト表示部12と、認識結果テキスト修正部13と、音声認識適合スコア計算部14と、音声認識適合場所判断部15と、最寄最適場所提示部16と、音声認識結果データベース(DB)17と、音声認識適合場所データベース(DB)18と、利用者データベース(DB)19とを備える。   FIG. 2 is a block diagram illustrating a configuration example of the voice recognition support server 100. As shown in FIG. 2, the speech recognition support server 100 includes a speech recognition unit 11, a recognition result text display unit 12, a recognition result text correction unit 13, a speech recognition suitability score calculation unit 14, and a speech recognition suitability place determination. A unit 15, a nearest optimum place presentation unit 16, a speech recognition result database (DB) 17, a speech recognition compatible place database (DB) 18, and a user database (DB) 19 are provided.

音声認識部11は、利用者端末から音声データを受け取り、音声認識を実行する。認識結果テキスト表示部12は、音声認識した結果のテキストを利用者端末に表示させる。認識結果テキスト修正部13は、音声認識した結果のテキストを修正する。   The voice recognition unit 11 receives voice data from the user terminal and executes voice recognition. The recognition result text display unit 12 displays the text of the result of voice recognition on the user terminal. The recognition result text correction unit 13 corrects the text resulting from the speech recognition.

音声認識適合スコア計算部14は、音声を入力した場所に対応づけてその場所の音声認識への適合度を計算する。本実施形態では、音声認識適合スコア計算部14は、その場所の音声認識への適合性の度合い(適合度)を示す音声認識適合スコアを算出する。   The voice recognition suitability score calculation unit 14 calculates the degree of suitability for voice recognition of the place in association with the place where the voice is input. In the present embodiment, the speech recognition suitability score calculator 14 calculates a speech recognition suitability score indicating the degree of suitability (satisfaction level) for speech recognition at the location.

音声認識適合場所判断部15は、利用者が音声を入力(録音)しようとしている場所に対応づけられた音声認識適合スコアから、その場所が音声認識に適しているかどうか、より具体的には音声入力場所として適しているかどうかを判断する。最寄最適場所提示部16は、判断の結果、その場所の最寄りで音声認識に最適な場所を提示する。   The speech recognition conformity location determination unit 15 determines whether the location is suitable for speech recognition, more specifically, from the speech recognition conformity score associated with the location where the user is about to input (record) speech. Determine if it is suitable as an input location. As a result of the determination, the nearest optimum place presenting unit 16 presents the place most suitable for speech recognition near the place.

音声認識結果DB17は、音声認識結果データを保存する。音声認識結果DB17は、例えば、本システムの利用者が様々な場所で入力した音声に対して行った音声認識結果を、その音声認識結果を識別するための情報と対応づけて保持してもよい。また、音声認識結果DB17は、音声認識結果の情報と併せて、利用者による音声認識結果テキストの修正内容を示す情報を保持する。   The voice recognition result DB 17 stores voice recognition result data. The speech recognition result DB 17 may hold, for example, speech recognition results performed on speech input by the user of the system at various locations in association with information for identifying the speech recognition results. . Further, the voice recognition result DB 17 holds information indicating the correction contents of the voice recognition result text by the user, together with the information of the voice recognition result.

音声認識適合場所DB18は、音声を残した場所の音声認識への適合度を示す情報を保持する。音声認識適合場所DB18は、例えば、場所を示す情報と、当該場所についての音声認識適合スコアとを対応づけて保持してもよい。   The voice recognition compatible place DB 18 holds information indicating the degree of suitability for voice recognition of the place where the voice is left. For example, the voice recognition suitable place DB 18 may hold information indicating a place and a voice recognition suitability score for the place in association with each other.

利用者DB19は、利用者に関する情報である利用者情報を保持する。利用者DB19は、例えば、利用者を識別するための情報と、その利用者についての音声認識結果の精度を示す情報とを対応づけて保持してもい。なお、利用者についての音声認識結果の精度を示す情報は、利用者の特徴による影響が反映されないように、場所の音声認識適合スコアを算出するために用いる情報である。   The user DB 19 holds user information that is information about the user. For example, the user DB 19 may hold information for identifying the user and information indicating the accuracy of the voice recognition result for the user in association with each other. Note that the information indicating the accuracy of the speech recognition result for the user is information used for calculating the speech recognition conformity score of the place so that the influence of the user characteristics is not reflected.

また、図3は、利用者端末301の構成例を示すブロック図である。図3に示すように、利用者端末301は、送受信部31と、音声入力部32と、表示部33と、位置情報入力部34とを備える。   FIG. 3 is a block diagram illustrating a configuration example of the user terminal 301. As shown in FIG. 3, the user terminal 301 includes a transmission / reception unit 31, a voice input unit 32, a display unit 33, and a position information input unit 34.

送受信部31は、ネットワーク200を介して、音声認識支援サーバ100との間で各種情報を送受信する。音声入力部32は、音声認識対象とする音声(音声データ)を入力する。音声入力部32は、マイクロフォンを備え、利用者の操作に応じてマイクロフォンが集音した音声データを入力する。表示部33は、音声認識支援サーバ100から受信した情報や、音声認識支援サーバ100に送信する情報を利用者に入力させるための画面を表示する。位置情報入力部34は、音声を入力した場所を示す位置情報や、適合場所判断を要求する場所の位置情報を入力する。位置情報入力部34は、例えば、GPS受信機を備え、音声を入力した際にGPS受信機が保持している緯度・経度情報を読み出すことによって音声を入力した場所を示す位置情報を入力してもよい。また、例えば、キーボードやマウス等の情報入力装置を介して利用者が指定(入力操作)した情報を入力してもよい。なお、適合場所判断を要求する場所の位置情報に限らず、音声を入力した場所を示す位置情報に、利用者が指定(入力操作)した情報を用いてもよい。   The transmission / reception unit 31 transmits / receives various information to / from the voice recognition support server 100 via the network 200. The voice input unit 32 inputs voice (voice data) that is a voice recognition target. The voice input unit 32 includes a microphone and inputs voice data collected by the microphone in response to a user operation. The display unit 33 displays a screen for allowing the user to input information received from the voice recognition support server 100 or information to be transmitted to the voice recognition support server 100. The position information input unit 34 inputs position information indicating a place where the voice is input and position information of a place where the conformity place determination is requested. The position information input unit 34 includes, for example, a GPS receiver, and inputs position information indicating a place where the voice is input by reading latitude / longitude information held by the GPS receiver when the voice is input. Also good. Further, for example, information designated (input operation) by a user may be input via an information input device such as a keyboard or a mouse. Information specified by the user (input operation) may be used as the position information indicating the place where the voice is input, instead of the position information of the place where the conformity place determination is requested.

利用者端末は、例えば、プログラムに従って動作するCPUからの制御指示に応じて、情報の送受信や表示、音声データの入力等を行う。なお、このプログラムは、予め記憶装置に記憶されているプログラムに限らず、ブラウザ等を用いてサーバにアクセスすることによってダウンロードされるプログラム等を含む。   The user terminal performs transmission / reception and display of information, input of audio data, and the like according to a control instruction from a CPU that operates according to a program, for example. This program is not limited to a program stored in the storage device in advance, but includes a program downloaded by accessing the server using a browser or the like.

また、図3では、利用者端末301の例を示したが、他の利用者端末(利用者端末302、303等)も同様でよい。なお、本システムの動作は、音声入力から音声認識までと、音声認識結果の確認および修正と、音声認識場所の適合性判断と、というようにいくつかのフェーズに分けることが可能である。従って、利用者の利用形態に応じて各フェーズを実行する利用者端末を分けるなど、別々の利用者端末を用いることも可能である。   Moreover, although the example of the user terminal 301 was shown in FIG. 3, other user terminals (user terminal 302, 303, etc.) may be the same. The operation of this system can be divided into several phases such as from voice input to voice recognition, confirmation and correction of the voice recognition result, and suitability determination of the voice recognition place. Therefore, it is possible to use different user terminals, for example, to divide the user terminals that execute each phase according to the user's usage mode.

また、本実施形態において、音声認識部11、認識結果テキスト表示部12、認識結果テキスト修正部13、音声認識適合スコア計算部14、音声認識適合場所判断部15、最寄最適場所提示部16は、例えば、音声認識支援サーバが備えるデータ処理装置によって実現される。また、音声認識結果DB17、音声認識適合場所DB18、利用者DB19は、例えば、音声認識支援サーバが備えるメモリ、データベースシステムによって実現される。なお、データベースシステムには、要求に応じて、条件が合致するデータ群を一連のデータとして対応づけて出力する制御部を含む。   In the present embodiment, the speech recognition unit 11, the recognition result text display unit 12, the recognition result text correction unit 13, the speech recognition conformity score calculation unit 14, the speech recognition conformity place determination unit 15, and the nearest optimum place presentation unit 16 For example, it is realized by a data processing device provided in the voice recognition support server. The voice recognition result DB 17, the voice recognition matching place DB 18, and the user DB 19 are realized by, for example, a memory and a database system provided in the voice recognition support server. The database system includes a control unit that outputs a group of data that matches the conditions as a series of data in response to a request.

次に、本実施形態の動作について説明する。本実施形態では、大まかに次の処理フローを含む。
(1)音声認識を行った際に、場所情報と認識結果をシステムに蓄積する。
(2)音声認識結果が修正された際に、修正内容をシステムに蓄積する。
(3)認識結果の修正量と個人の平均修正量との差から、その場所が音声認識に適した場所かどうかのスコアを計算する。
(4)利用者がスコアが低い場所で認識対象となる音声を入力しようとしている場合は、その場所が音声認識に適していないことを提示し、最寄りのスコアが高い場所を提示する。
Next, the operation of this embodiment will be described. In the present embodiment, the following processing flow is roughly included.
(1) When voice recognition is performed, location information and recognition results are stored in the system.
(2) When the voice recognition result is corrected, the correction content is stored in the system.
(3) From the difference between the correction amount of the recognition result and the average correction amount of the individual, a score is calculated as to whether the location is suitable for speech recognition.
(4) When the user is going to input a voice to be recognized in a place where the score is low, the user presents that the place is not suitable for voice recognition, and presents a place where the nearest score is high.

このように、ネットワークを介して不特定多数の利用者に利用させることで、幅広い利用者の音声認識結果を利用履歴として日々蓄積し、それを元にスコアの精度改善を行う。これにより、ある利用者が行ったことがない場所でもその場所が音声認識に適しているか否かの情報を得ることができる。   In this way, by making it available to an unspecified number of users via the network, the speech recognition results of a wide range of users are accumulated daily as usage histories, and score accuracy is improved based on the results. As a result, it is possible to obtain information as to whether or not the place is suitable for voice recognition even in a place where a certain user has never been.

次に、図4〜図9を参照して各処理フローについてより詳細に説明する。まず、図4を参照して、利用者端末を用いて入力した音声を音声認識する処理について説明する。図4は、音声認識処理の処理フローの一例を示すフローチャートである。なお、本例では、利用者端末として携帯電話機を想定している。   Next, each processing flow will be described in more detail with reference to FIGS. First, a process for recognizing voice input using a user terminal will be described with reference to FIG. FIG. 4 is a flowchart illustrating an example of a processing flow of the voice recognition processing. In this example, a mobile phone is assumed as the user terminal.

図4に示すように、はじめに、利用者端末を用いて音声を録音する(S1001)。本例では、システムが保持する特定の電話番号に対して携帯電話機から発信し音声を話すことで、その音声がシステムに録音されることを想定している。利用者端末は、例えば、利用者からの操作に応じて、音声を入力し、入力された音声(音声データ)を音声認識支援サーバ100の音声認識部11に出力(送信)する。なお、音声録音方法としてはこの限りではない。   As shown in FIG. 4, first, a voice is recorded using a user terminal (S1001). In this example, it is assumed that the voice is recorded in the system by calling the voice from the mobile phone to the specific telephone number held by the system. For example, the user terminal inputs voice in response to an operation from the user, and outputs (transmits) the input voice (voice data) to the voice recognition unit 11 of the voice recognition support server 100. Note that the voice recording method is not limited to this.

次に、認識対象の音声を受信すると、音声認識部11は、音声を入力した場所の緯度・経度情報、日時および携帯電話番号(利用者を識別できる情報)を取得する(S1002)。本例では、利用者端末に内蔵されたGPS受信機が保持している緯度・経度情報をネットワークを介してシステム(より具体的には、音声認識部11)が取得することを想定している。また、日時および携帯電話番号は音声録音時に取得することを想定している。なお、システム側から取得する方法に限らず、利用者端末が音声の録音を開始するタイミングで自発的に読み出し、音声データを送信する際に併せて現在位置の緯度・経度情報、現在日時および携帯電話番号を送信するようにしてもよい。   Next, when receiving the recognition target voice, the voice recognition unit 11 acquires latitude / longitude information, date / time, and mobile phone number (information that can identify the user) of the place where the voice is input (S1002). In this example, it is assumed that the system (more specifically, the voice recognition unit 11) acquires the latitude / longitude information held by the GPS receiver built in the user terminal via the network. . In addition, it is assumed that the date and time and the mobile phone number are obtained at the time of voice recording. In addition, the method is not limited to the method of acquiring from the system side, the user terminal voluntarily reads out at the timing when the voice recording starts and transmits the voice data together with the latitude / longitude information of the current position, the current date and time, and the mobile phone. You may make it transmit a telephone number.

また、音声認識部11は、取得した携帯電話番号に一致する電話番号をもつ利用者IDを、利用者DB19の利用者テーブル(図10参照。)から取得する(S1003)。   Further, the voice recognition unit 11 acquires a user ID having a telephone number that matches the acquired mobile phone number from the user table (see FIG. 10) of the user DB 19 (S1003).

図10は、利用者DB19が保持する利用者テーブルの一例を示す説明図である。図10に示す利用者テーブルは、利用者情報を登録するテーブルであって、利用者IDと、利用者の姓名と、電話番号と、音声認識スコア(平均)と、登録回数とを含む。   FIG. 10 is an explanatory diagram showing an example of a user table held by the user DB 19. The user table shown in FIG. 10 is a table for registering user information, and includes a user ID, a user's first and last name, a telephone number, a voice recognition score (average), and the number of registrations.

利用者IDは、当該システムにおいて利用者を識別するための識別子である。また、音声認識スコアは、その利用者についての音声認識結果の精度を示す情報であって、本実施形態では、音声認識適合スコア計算部14が利用者別に算出する音声認識スコア(平均)を登録する。登録回数は、その利用者が本システムに音声認識結果を登録した回数である。なお、利用者ID、姓名、電話番号は、本システムが当該処理を開始する前までに予め登録されているものとする。また、利用者別音声認識スコアの登録および登録回数の更新方法については後述する。   The user ID is an identifier for identifying the user in the system. The voice recognition score is information indicating the accuracy of the voice recognition result for the user. In this embodiment, the voice recognition score (average) calculated by the voice recognition matching score calculation unit 14 for each user is registered. To do. The number of registrations is the number of times the user has registered the speech recognition result in this system. Note that the user ID, first and last name, and telephone number are registered in advance before the system starts the processing. A method for registering the voice recognition score for each user and updating the number of registrations will be described later.

次に、音声認識部11は、S1001で録音した音声に対して音声認識を実行する(S1004)。本例では、音声認識方法として、特開2002−099296号公報に記載されているような公知の音声認識装置をシステムで搭載することを想定している。   Next, the voice recognition unit 11 performs voice recognition on the voice recorded in S1001 (S1004). In this example, it is assumed that a known speech recognition apparatus as described in JP-A-2002-099296 is installed in the system as a speech recognition method.

音声認識が完了すると、音声認識部11は、利用者ID、S1004で音声認識して得られた認識結果のテキスト、緯度・経度、日時を音声認識結果DB17の音声認識結果テーブル(図11参照。)に登録する(S1005)。   When the voice recognition is completed, the voice recognition unit 11 uses the user ID, the recognition result text obtained by performing the voice recognition in S1004, the latitude / longitude, and the date / time on the voice recognition result table of the voice recognition result DB 17 (see FIG. 11). (S1005).

図11は、音声認識結果DB17が保持する音声認識結果テーブルの一例を示す説明図である。図11に示す音声認識結果テーブルは、音声認識結果データを登録するテーブルであって、認識結果IDと、利用者IDと、認識結果テキストと、日時情報と、場所情報とを含む。   FIG. 11 is an explanatory diagram showing an example of a speech recognition result table held in the speech recognition result DB 17. The speech recognition result table shown in FIG. 11 is a table for registering speech recognition result data, and includes a recognition result ID, a user ID, recognition result text, date information, and location information.

認識結果IDは、当該システムにおいて1件分の認識結果を識別するための識別子である。利用者IDは、当該認識結果を得た音声を入力した利用者を識別するための情報である。本例では、利用者テーブルの利用者IDが登録される。認識結果テキストは、音声認識して得られた認識結果を示すテキストである。日時情報は、当該認識結果を得た音声が入力(録音)された日時を示す情報である。場所情報は、当該認識結果を得た音声が入力(録音)された場所を示す情報(本例では、緯度経度)である。   The recognition result ID is an identifier for identifying one recognition result in the system. The user ID is information for identifying the user who has input the voice obtained from the recognition result. In this example, the user ID of the user table is registered. The recognition result text is a text indicating a recognition result obtained by voice recognition. The date and time information is information indicating the date and time when the voice obtained from the recognition result is input (recorded). The location information is information (latitude and longitude in this example) that indicates the location where the voice obtained from the recognition result is input (recorded).

例えば、利用者「鈴木和夫」が、携帯電話機を用いて、2010年7月12日 15時10分に緯度「35.651386」、経度「139.754183」の場所で残した音声を音声認識した場合、図11のレコード111のようなデータが登録され、認識結果ID(本例では、34)が採番されて記憶される。   For example, the user “Kazuo Suzuki” recognized the voice left at the latitude “35.651386” and longitude “139.754183” at 15:10 on July 12, 2010 using a mobile phone. In this case, data such as the record 111 in FIG. 11 is registered, and the recognition result ID (34 in this example) is numbered and stored.

次に、音声認識処理部11は、今回音声認識を行った音声が入力された場所(緯度・経度)と一致する場所情報が音声認識適合場所DB18の認識場所テーブル(図12参照。)に存在するか否かを判定する(S1006)。存在しない場合は(S1006のNo)、今回の緯度・経度を新たな音声認識場所として、音声認識適合場所DB18の認識場所テーブルに登録する(S1007)。そして、音声認識処理を終了する。一方、存在する場合は(S1006のYes)、そのまま処理を終了する。   Next, the speech recognition processing unit 11 has location information that matches the location (latitude / longitude) where the speech that has been speech-recognized this time is input in the recognition location table (see FIG. 12) of the speech recognition compatible location DB 18. It is determined whether or not to perform (S1006). If it does not exist (No in S1006), this latitude / longitude is registered as a new voice recognition place in the recognition place table of the voice recognition compatible place DB 18 (S1007). Then, the voice recognition process ends. On the other hand, if it exists (Yes in S1006), the process is terminated as it is.

図12は、音声認識適合場所DB18が保持する認識場所テーブルの一例を示す説明図である。図12に示す認識場所テーブルは、音声認識場所毎にその場所の音声認識適合スコアを登録するテーブルであって、認識場所IDと、場所情報と、音声認識適合スコアと、登録回数とを含む。   FIG. 12 is an explanatory diagram showing an example of a recognition location table held by the speech recognition compatible location DB 18. The recognition place table shown in FIG. 12 is a table for registering the voice recognition suitability score for each voice recognition place, and includes a recognition place ID, place information, a voice recognition suitability score, and the number of registrations.

認識場所IDは、当該システムにおいて1つの認識場所を識別するための識別子である。場所情報は、当該場所を示す情報である。音声認識適合スコアは、その場所についての音声認識結果の精度を示す情報であって、本実施形態では、音声認識適合スコア計算部14が算出した音声認識適合スコアを登録する。登録回数は、本システムに認識場所としてその場所が登録された回数である。なお、音声認識適合スコアおよび登録回数は、S1007で音声認識部11が新たな認識場所を登録する際には、空データ(音声認識スコア未登録、登録回数0回など)でよい。音声認識適合スコアの登録および登録回数の更新方法については後述する。   The recognition place ID is an identifier for identifying one recognition place in the system. The location information is information indicating the location. The speech recognition suitability score is information indicating the accuracy of the speech recognition result for the place. In this embodiment, the speech recognition suitability score calculated by the speech recognition suitability score calculation unit 14 is registered. The number of registrations is the number of times the place is registered as a recognition place in the system. Note that the voice recognition fitness score and the number of registrations may be empty data (no voice recognition score registered, number of registrations 0, etc.) when the voice recognition unit 11 registers a new recognition place in S1007. A method for registering the speech recognition fitness score and updating the number of registrations will be described later.

次に、図5を参照して、音声認識した結果テキストを利用者に対して表示する認識結果テキスト表示処理について説明する。図5は、認識結果テキスト表示処理の処理フローの一例を示すフローチャートである。本例では、パーソナルコンピュータなどの端末を利用者が保持していることを想定し、また端末内に搭載されたWebブラウザ向けの画面をシステムが作成し、その画面を利用して情報の表示を行うことを想定している。なお、表示する端末や方法はこの限りではない。また、利用者はWebブラウザで画面を参照する初回時に利用者IDをシステムに送信し、個人認証がなされているものとする。   Next, with reference to FIG. 5, a recognition result text display process for displaying the voice-recognized result text to the user will be described. FIG. 5 is a flowchart illustrating an example of a processing flow of recognition result text display processing. In this example, it is assumed that the user holds a terminal such as a personal computer, and the system creates a screen for the Web browser installed in the terminal, and displays information using the screen. Assumes to do. In addition, the terminal and method to display are not this limitation. Further, it is assumed that the user transmits a user ID to the system at the first time of referring to the screen with a Web browser, and personal authentication is performed.

以下、利用者ID「1」の「鈴木和夫」が参照しているものとして説明する。ここでは、利用者端末は、利用者からの要求に応じて、システムが用意した所定のWebページにアクセスする。そこで、利用者IDを入力すると、認識結果テキストの表示要求が利用者IDとともに、音声認識支援サーバ100の認識結果テキスト表示部12に送信されるものとする。   In the following description, it is assumed that “Kazuo Suzuki” of the user ID “1” is referring. Here, the user terminal accesses a predetermined Web page prepared by the system in response to a request from the user. Therefore, when a user ID is input, a recognition result text display request is transmitted to the recognition result text display unit 12 of the speech recognition support server 100 together with the user ID.

図5に示すように、認識結果テキスト表示部12は、認識結果テキストの表示要求を受信すると、音声認識結果DB17の音声認識結果テーブル(図11参照。)から、受け取った利用者IDと一致する音声認識結果データ(より具体的には、認識結果テキスト)を取得する(S2001)。そして、取得した認識結果テキストの一覧を要求元である利用者端末の画面に表示させる(S2002)。   As shown in FIG. 5, when receiving the recognition result text display request, the recognition result text display unit 12 matches the received user ID from the speech recognition result table (see FIG. 11) of the speech recognition result DB 17. Speech recognition result data (more specifically, recognition result text) is acquired (S2001). Then, the list of acquired recognition result texts is displayed on the screen of the user terminal that is the request source (S2002).

図14(a)は、認識結果テキスト一覧ページの一例を示す説明図である。図14(a)に示すように、その利用者が登録した音声に対する音声認識結果テキストを順に、認識結果IDとともに表示してもよい。また、図14(a)に示す例では、各音声認識結果テキストの表示領域に対して、その音声認識結果テキストの修正操作を開始する旨の指示を行う操作ボタン(修正ボタン)が設けられている。   FIG. 14A is an explanatory diagram illustrating an example of a recognition result text list page. As shown in FIG. 14A, the speech recognition result text for the speech registered by the user may be sequentially displayed together with the recognition result ID. In the example shown in FIG. 14A, an operation button (correction button) for giving an instruction to start the correction operation of the voice recognition result text is provided for each voice recognition result text display area. Yes.

利用者は、このような認識結果一覧の中から1件の認識結果を確認、編集する場合、図14(a)にあるような修正ボタンを押下すればよい。この時、利用者端末は、その操作に応じて、修正の開始と認識結果IDとを音声認識支援サーバ100に送信する。本例では、音声認識支援サーバ100には、認識結果IDとして「34」が送信される。   When the user confirms and edits one recognition result from such a recognition result list, the user may press a correction button as shown in FIG. At this time, the user terminal transmits the start of correction and the recognition result ID to the voice recognition support server 100 according to the operation. In this example, “34” is transmitted to the voice recognition support server 100 as the recognition result ID.

認識結果テキスト表示部12では、受け取った認識結果IDに一致する認識結果テキストを音声認識結果DB17の音声認識結果テーブルから取得し(S2003)、認識結果テキスト修正ページを表示する(S2004)。   The recognition result text display unit 12 acquires the recognition result text that matches the received recognition result ID from the speech recognition result table of the speech recognition result DB 17 (S2003), and displays the recognition result text correction page (S2004).

図14(b)は、認識結果テキスト修正ページの一例を示す説明図である。図14(b)に示すように、修正対象とされた認識結果テキストを認識結果IDとともに表示してもよい。なお、認識結果テキスト修正ページにおける認識結果テキストは、利用者が編集可能なように表示されている。また、図14(b)に示す例では、その音声認識結果テキストの修正内容の確定を指示する操作ボタン(修正確定ボタン)が設けられている。   FIG. 14B is an explanatory diagram illustrating an example of a recognition result text correction page. As shown in FIG. 14 (b), the recognition result text to be corrected may be displayed together with the recognition result ID. The recognition result text on the recognition result text correction page is displayed so that the user can edit it. In the example shown in FIG. 14B, an operation button (correction confirmation button) for instructing confirmation of the correction content of the voice recognition result text is provided.

次に、図6を参照して、認識結果テキストを利用者が修正する認識結果テキスト修正について説明する。図6は、認識結果テキスト修正処理の処理フローの一例を示すフローチャートである。   Next, with reference to FIG. 6, the recognition result text correction in which the user corrects the recognition result text will be described. FIG. 6 is a flowchart illustrating an example of a processing flow of recognition result text correction processing.

今、利用者端末には、図5のS2004によって認識結果テキスト修正ページが表示されているものとする(S3001)。なお、修正の開始と認識結果IDとを認識結果テキスト修正部13が受け取り、認識結果テキスト修正処理において認識結果テキスト修正ページを表示してもよい。   Now, it is assumed that the recognition result text correction page is displayed on the user terminal in S2004 of FIG. 5 (S3001). Note that the recognition result text correction unit 13 may receive the start of correction and the recognition result ID, and display the recognition result text correction page in the recognition result text correction processing.

利用者が認識結果テキストの誤りを修正して修正確定ボタンを押下すると、その旨が認識結果テキスト修正部13に送信されるものとする。認識結果テキスト修正部13は、修正確定を示すメッセージを受信すると、認識結果ID、修正された認識結果テキストを取得して、現在日時とともに音声認識結果DB17の認識結果修正履歴テーブル(図13参照。)に登録する(S3002)。   When the user corrects the error in the recognition result text and presses the correction confirmation button, the fact is transmitted to the recognition result text correction unit 13. When the recognition result text correction unit 13 receives the message indicating the correction confirmation, the recognition result text correction unit 13 acquires the recognition result ID and the corrected recognition result text, and together with the current date and time, the recognition result correction history table of the voice recognition result DB 17 (see FIG. 13). (S3002).

図13は、音声認識結果DB17が保持する認識結果修正履歴テーブルの一例を示す説明図である。図13に示す認識結果修正履歴テーブルは、利用者による音声認識結果テキストの修正内容を登録するテーブルであって、修正履歴IDと、認識結果IDと、(修正後の)認識結果テキストと、日時情報とを含む。   FIG. 13 is an explanatory diagram showing an example of a recognition result correction history table held in the voice recognition result DB 17. The recognition result correction history table shown in FIG. 13 is a table for registering the correction contents of the speech recognition result text by the user, the correction history ID, the recognition result ID, the (corrected) recognition result text, and the date and time. Information.

修正履歴IDは、当該修正内容を識別するための識別子である。認識結果IDは修正対象とされた認識結果テキストを識別するための識別子である。認識結果IDは、認識結果テーブルの認識結果IDが登録される。認識結果テキストは、利用者によって修正された後の認識結果テキストである。日時情報は、修正された日時を示す情報である。   The correction history ID is an identifier for identifying the correction content. The recognition result ID is an identifier for identifying the recognition result text to be corrected. As the recognition result ID, the recognition result ID of the recognition result table is registered. The recognition result text is the recognition result text after being corrected by the user. The date / time information is information indicating the corrected date / time.

例えば、図14(b)に示した内容に認識結果テキストを修正した場合、認識結果修正履歴テーブルには、図13のレコード131のようなデータが登録され、修正履歴ID(本例では、100)が採番されて記憶される。   For example, when the recognition result text is corrected to the contents shown in FIG. 14B, data such as the record 131 in FIG. 13 is registered in the recognition result correction history table, and the correction history ID (100 in this example) is registered. ) Is numbered and stored.

次に、図7および図15を参照して、音声を入力した場所の音声認識への適合度を示す音声認識適合スコアを計算する音声認識適合スコア計算処理について説明する。図7は、音声認識適合スコア計算処理の処理フローの一例を示すフローチャートである。また、図15は、図7に示す各ステップの具体例を示す説明図である。   Next, with reference to FIG. 7 and FIG. 15, a speech recognition suitability score calculation process for calculating a speech recognition suitability score indicating the degree of suitability for speech recognition at a place where speech is input will be described. FIG. 7 is a flowchart illustrating an example of a processing flow of the speech recognition suitability score calculation process. FIG. 15 is an explanatory diagram showing a specific example of each step shown in FIG.

以下では、図14に示すように、利用者ID「1」の「鈴木和夫」が、認識結果ID「34」を修正した場合を例にあげて説明する。例えば、修正後の認識結果テキストが認識結果修正履歴テーブルに登録されると、認識結果テキスト修正部13から音声認識適合スコア計算部14にその旨が通知されるものとする。図7に示す例では、通知を受けた音声認識適合スコア計算部14は、まず、修正された認識結果テキストの認識結果IDに一致する認識結果テキスト(修正前の認識結果テキスト)と場所情報とを音声認識結果DB17の音声認識結果テーブルから取得する(S4001)。   Hereinafter, as illustrated in FIG. 14, a case where the user ID “1” “Kazuo Suzuki” modifies the recognition result ID “34” will be described as an example. For example, when the corrected recognition result text is registered in the recognition result correction history table, the recognition result text correction unit 13 notifies the voice recognition suitability score calculation unit 14 of that fact. In the example illustrated in FIG. 7, the voice recognition suitability score calculation unit 14 that has received the notification firstly recognizes the recognition result text that matches the recognition result ID of the corrected recognition result text (the recognition result text before correction), the location information, Is obtained from the speech recognition result table of the speech recognition result DB 17 (S4001).

次に、認識結果IDに一致する修正結果テキストを音声認識結果DB17の認識結果修正履歴テーブルから取得する(S4002)。ここでは、修正前の音声認識テキストを読み出す。   Next, the correction result text that matches the recognition result ID is acquired from the recognition result correction history table of the voice recognition result DB 17 (S4002). Here, the speech recognition text before correction is read out.

次に、修正量として、認識結果テキストと修正結果テキストとを比較した際の異なる文字数を計数し、認識結果テキスト数に占める異なる文字数の割合を計算する(S4003)。本例では、認識結果テキストの文字数が「45」、認識結果テキストと修正結果テキスト中の異なる文字数(修正量)が「14」であるため、認識結果テキスト数に占める異なる文字数の割合は「14/45=0.31」となる(図15のS4003参照。)。本例では、ステップS4003で算出する認識結果テキスト数に占める異なる文字数の割合を、当該音声認識結果についての音声認識の精度を示す音声認識スコアとして扱う。なお、本例の音声認識スコアは、異なる文字数の割合が大きいほど、すなわち音声認識の精度が低くなるほど値が大きくなる性質となっていることに注意が必要である。   Next, as the amount of correction, the number of different characters when the recognition result text and the correction result text are compared is counted, and the ratio of the number of different characters in the number of recognition result text is calculated (S4003). In this example, the number of characters in the recognition result text is “45”, and the number of different characters (correction amount) in the recognition result text and the correction result text is “14”. /45=0.31 ”(see S4003 in FIG. 15). In this example, the ratio of the number of different characters in the number of recognition result texts calculated in step S4003 is treated as a speech recognition score indicating the accuracy of speech recognition for the speech recognition result. It should be noted that the voice recognition score of this example has a property that the value increases as the ratio of the number of different characters increases, that is, as the voice recognition accuracy decreases.

次に、認識結果IDに一致する利用者IDを音声認識結果DB17の音声認識結果テーブルから取得する(S4004)。ここでは、当該音声認識結果を登録した利用者IDを読み出す。   Next, the user ID that matches the recognition result ID is acquired from the voice recognition result table of the voice recognition result DB 17 (S4004). Here, the user ID that registered the voice recognition result is read out.

次に、利用者DB18の利用者テーブル(図10参照。)から利用者IDに一致する音声認識スコア(平均)を取得し、S4003で算出した今回の音声認識スコアとの差を計算する(S4005)。ここでは、今回の音声認識結果の精度が、利用者の平均的な音声認識結果の精度とどれくらい異なるかを計算している。本例では、図10のレコード101に示すように、音声認識スコア(平均)「0.21」が取得され、差は「0.31−0.21=0.1」となる(図15のS4005参照。)。この値は、当該音声認識場所が、0.1スコアを悪化させる場所であったと判断されたことを意味している。   Next, the voice recognition score (average) matching the user ID is acquired from the user table (see FIG. 10) of the user DB 18, and the difference from the current voice recognition score calculated in S4003 is calculated (S4005). ). Here, it is calculated how much the accuracy of the current speech recognition result differs from the accuracy of the average speech recognition result of the user. In this example, as shown in the record 101 in FIG. 10, a voice recognition score (average) “0.21” is acquired, and the difference is “0.31−0.21 = 0.1” (in FIG. 15). (See S4005). This value means that it is determined that the voice recognition place is a place that deteriorates the 0.1 score.

本実施形態では、ステップS4005で求めた差を、音声認識適合スコアと呼ぶ。なお、ステップS4005で求めた音声認識適合スコアは、厳密には今回の音声認識結果によるその場所の音声認識結果の精度を示す音声認識適合スコアである。なお、利用者テーブルから取得した音声認識スコア(平均)は、利用者がこれまでにさまざまな場所で音声認識した結果の精度を示す音声認識スコア(ここでは、音声認識テキストとその修正結果テキストの異なる文字数割合)を平均化した数値であり、この数値は、その利用者個人についの音声認識への適合度を示す指標となる。S4005で算出する音声認識適合スコアは、今回ある場所で録音した音声に対して音声認識した結果の音声認識スコアと、その利用者の音声認識スコア(平均)との差であることから、この数値が0より大きい場合は、今回の場所は音声認識への適合度が平均よりも低いと考えることができる。   In the present embodiment, the difference obtained in step S4005 is referred to as a speech recognition suitability score. Strictly speaking, the speech recognition suitability score obtained in step S4005 is a speech recognition suitability score indicating the accuracy of the speech recognition result at that location based on the current speech recognition result. Note that the speech recognition score (average) obtained from the user table is the speech recognition score indicating the accuracy of the results of speech recognition by the user at various locations so far (here, the speech recognition text and its correction result text). This is a numerical value obtained by averaging the ratios of different numbers of characters), and this numerical value serves as an index indicating the suitability of the individual user for speech recognition. The voice recognition fitness score calculated in S4005 is the difference between the voice recognition score obtained as a result of voice recognition performed on the voice recorded at a certain location this time, and the voice recognition score (average) of the user. When is larger than 0, it can be considered that the current place has a lower degree of fitness for speech recognition than the average.

次に、S4003で算出した今回の音声認識スコアを基に、その利用者の音声認識スコア(平均)を再計算し、利用者DB10の利用者テーブルの音声認識スコア(平均)に登録する(S4006)。今回の場合、これまでの音声認識スコア(平均)が「0.21」、登録回数が「15」であり、今回の音声認識スコアが「0.31」であることから、登録回数を1つ増やして「(0.21*15+0.31)/16=0.22(少数点以下3位で四捨五入)」と変化する(図15のS4006参照。)。   Next, based on the current speech recognition score calculated in S4003, the user's speech recognition score (average) is recalculated and registered in the speech recognition score (average) in the user table of the user DB 10 (S4006). ). In this case, since the previous voice recognition score (average) is “0.21”, the number of registrations is “15”, and the current voice recognition score is “0.31”, the number of registrations is one. It increases and changes to “(0.21 * 15 + 0.31) /16=0.22 (rounded to the second decimal place)” (see S4006 in FIG. 15).

次に、音声認識適合場所DB18の認識場所テーブル(図12参照。)から、S4001で取得した緯度・経度が一致する場所の認識場所IDと音声認識適合スコア(平均)を取得する(S4007)。ここでは、現時点での当該場所の音声認識適合スコア(平均)を読み出す。本例では、図12のレコード121に示すように、認識場所ID「5」、音声認識適合スコア(平均)「0.12」が取得される。   Next, the recognition location ID and the speech recognition fitness score (average) of the location where the latitude / longitude acquired in S4001 match are acquired from the recognition location table (see FIG. 12) of the speech recognition compatible location DB 18 (S4007). Here, the voice recognition conformity score (average) at the current location is read out. In this example, as shown in the record 121 of FIG. 12, the recognition location ID “5” and the speech recognition conformity score (average) “0.12” are acquired.

ここで、認識場所の音声認識適合スコア(平均)とは、様々な利用者がこの場所で音声認識した際の音声認識適合スコアの平均を算出した数値である。この数値は、その場所の音声認識への適合度を示す指標となり、この数値が大きいほど音声認識への適合度が低いとみなせる。なお、この値は、音声認識適合スコアと同様に、0より大きい場合は、システムの利用者の平均的な修正量よりも多い修正量が見込まれる場所であると考えることができる。一方、マイナスの値であれば、システムの利用者の平均的な修正量よりも少ない修正量で済む場所であると考えることができる。   Here, the speech recognition suitability score (average) at the recognition location is a numerical value obtained by calculating the average of the speech recognition suitability scores when various users recognize speech at this location. This numerical value serves as an index indicating the degree of fitness for speech recognition at the location, and the larger the value, the lower the degree of fitness for speech recognition. Note that, similar to the speech recognition suitability score, when this value is larger than 0, it can be considered that a correction amount larger than the average correction amount of the system user is expected. On the other hand, if the value is negative, it can be considered that the correction amount is smaller than the average correction amount of the system user.

次に、S4005で算出した音声認識適合スコアを基に、その場所の音声認識適合スコア(平均)を再計算し、音声認識適合場所DB18の認識場所テーブルの音声認識適合スコア(平均)に登録する(S4008)。なお、平均を求める方法は、単純平均でもよいし、二乗平均等でもよい。今回の場合、その場所のこれまでの音声認識適合スコア(平均)が「0.12」であり、登録回数が「3」であることから、登録回数を1つ増やして「(0.12*3+0.1)/4=0.12(少数点以下3位で四捨五入)」と算出する。ここで、例えば、今回算出した音声認識適合スコアをその場所の音声認識適合スコア(平均)に加える際に重み付けを行ってもよい。例えば、今回の音声認識の条件だと音声入力場所として好ましくないことが予め分かっている場合には、低い重み係数を掛けて寄与度を下げてもよい。   Next, based on the speech recognition suitability score calculated in S4005, the speech recognition suitability score (average) at that location is recalculated and registered in the speech recognition suitability score (average) in the recognition location table of the speech recognition suitability location DB18. (S4008). The method for obtaining the average may be a simple average or a square average. In this case, since the speech recognition conformity score (average) of the place so far is “0.12” and the number of registrations is “3”, the number of registrations is increased by “(0.12 * 3 + 0.1) /4=0.12 (rounded to the second decimal place) ”. Here, for example, weighting may be performed when the speech recognition suitability score calculated this time is added to the speech recognition suitability score (average) at the location. For example, if it is known in advance that the current voice recognition conditions are not preferable as a voice input location, the contribution may be lowered by applying a low weighting factor.

次に、図8を参照して、利用者が携帯電話機を用いて音声を残そうとする際に、音声入力を行う場所が音声認識に適しているかどうかを判断する音声認識適合場所判断処理について説明する。図8は、音声認識適合場所判断処理の処理フローの一例を示すフローチャートである。   Next, referring to FIG. 8, when a user tries to leave a voice using a mobile phone, a voice recognition suitable place determination process for determining whether or not a place where voice input is performed is suitable for voice recognition. explain. FIG. 8 is a flowchart illustrating an example of a processing flow of the voice recognition conformity place determination process.

音声認識支援サーバ100の音声認識適合場所判断部15は、まず、利用者が音声を残そうとしている場所の緯度・経度を携帯電話機から取得する(S5001)。取得方法は音声認識部11で想定した方法と同様でよい。なお、場所情報は、現在位置を示す場所情報とは限らない。例えば、利用者端末を介して、これから音声を入力しようとしている場所を利用者に入力させてもよい。   First, the voice recognition conformity place determination unit 15 of the voice recognition support server 100 acquires the latitude / longitude of the place where the user wants to leave the voice from the mobile phone (S5001). The acquisition method may be the same as the method assumed by the voice recognition unit 11. The location information is not necessarily location information indicating the current position. For example, the user may be allowed to input the place where the voice is about to be input through the user terminal.

次に、取得した緯度・経度が一致する場所の認識場所IDを音声認識適合場所DB18の認識場所テーブル(図12参照。)から取得し(S5002)、該当する認識場所IDが存在するかどうか判定する(S5003)。該当する認識場所IDが存在しない場合は(S5003のNo)、音声認識適合スコアがまだ算出されていない新規な場所であるとして、そのまま音声を録音させて音声認識部11に音声認識を実行させればよい。   Next, the recognition location ID of the location where the acquired latitude / longitude matches is acquired from the recognition location table (see FIG. 12) of the speech recognition compatible location DB 18 (S5002), and it is determined whether the corresponding recognition location ID exists. (S5003). If the corresponding recognition place ID does not exist (No in S5003), the voice recognition unit 11 can perform voice recognition by recording the voice as it is and determining that the voice recognition suitability score has not yet been calculated. That's fine.

以下では、図12のレコード122で示す認識場所IDが「7」の場所が一致したとして説明する。該当する認識場所IDが存在する場合(S5003のYes)、音声認識適合場所判断部15は、音声認識適合場所DB18の認識場所テーブルから認識場所IDが一致する場所の音声認識適合スコア(平均)を取得する(S5004)。本例では、「0.43」が取得される。   In the following description, it is assumed that the place with the recognized place ID “7” indicated by the record 122 in FIG. When the corresponding recognition place ID exists (Yes in S5003), the speech recognition conformity place determination unit 15 calculates the speech recognition conformity score (average) of the places where the recognition place IDs match from the recognition place table of the speech recognition conformity place DB18. Obtain (S5004). In this example, “0.43” is acquired.

次に、取得した音声認識適合スコア(平均)が所定の閾値(X)以上の数値か否かを判定する(S5005)。ここでXとは0以上1以下の任意の数値であり、音声認識適合スコア(平均)がこの数値以上だと音声認識に適合した場所ではないとシステム管理者が判断する数値である。管理者が自由に設定・変更できるものとする。判定の結果、音声認識適合スコア(平均)が所定の閾値(X)以上である場合には(S5005のYes)、最寄最適場所提示処理に進む。本例では、Xが0.3と設定されていると仮定する。すると、音声認識適合スコア(平均)「0.43」の方が大きいので、最寄最適場所提示処理に進む。一方、音声認識適合スコア(平均)の方が小さい場合は(S5005のNo)、そのまま音声を録音させて音声認識部11に音声認識を実行させればよい。   Next, it is determined whether or not the acquired voice recognition conformity score (average) is a numerical value equal to or greater than a predetermined threshold (X) (S5005). Here, X is an arbitrary numerical value of 0 or more and 1 or less, and is a numerical value that is determined by the system administrator that the voice recognition conformity score (average) is equal to or greater than this numerical value and that the place is not suitable for speech recognition. The administrator can set and change freely. As a result of the determination, if the speech recognition suitability score (average) is equal to or greater than the predetermined threshold (X) (Yes in S5005), the process proceeds to the nearest optimum place presentation process. In this example, it is assumed that X is set to 0.3. Then, since the voice recognition conformity score (average) “0.43” is larger, the process proceeds to the nearest optimum place presentation process. On the other hand, if the voice recognition conformity score (average) is smaller (No in S5005), the voice recognition unit 11 may perform voice recognition by recording the voice as it is.

次に、図9を参照して、利用者の最寄りで音声認識に最適な場所を提示する最寄最適場所提示処理について説明する。図9は、最寄最適場所提示処理の処理フローの一例を示すフローチャートである。   Next, with reference to FIG. 9, the nearest optimum place presentation process for presenting the optimum place for speech recognition closest to the user will be described. FIG. 9 is a flowchart illustrating an example of the processing flow of the nearest optimal place presentation processing.

最寄最適場所提示処理では、最寄最適場所提示部16が、音声認識適合場所判断処理のS5005で取得した経度・緯度情報を基に、その場所から近く、かつ音声認識適合スコア(平均)がXより低い場所を、音声認識適合場所DB18の認識場所テーブルから検索し、最大Y件取得する(S6001)。ここでYとは、1以上の任意の整数であり、システム管理者が自由に設定・変更できるものとする。本例では、Yが1と設定されていると仮定し、検索の結果、図12のレコード123に示す認識場所ID「12」の場所が近いと判定されたと仮定する。   In the nearest optimum place presentation process, the nearest optimum place presentation unit 16 is close to the place and the voice recognition suitability score (average) is based on the longitude / latitude information acquired in S5005 of the voice recognition suitability place determination process. A place lower than X is searched from the recognition place table of the voice recognition compatible place DB 18 to obtain a maximum of Y places (S6001). Here, Y is an arbitrary integer of 1 or more, and can be set and changed freely by the system administrator. In this example, it is assumed that Y is set to 1, and it is assumed that the location of the recognition location ID “12” shown in the record 123 of FIG.

条件に合致する場所の情報が取得されると、最寄最適場所提示部16は、要求元の携帯電話機の画面に、その場所の情報を表示する。本例では、最寄の地図を表示し、その中にS6001で取得した緯度・経度の場所をプロットして表示する(S6002)。なお、条件に合致する場所の情報が存在しなかった場合には、その旨を通知するか、または取得した場所からの距離が所定の範囲内であって取得した場所よりも音声認識適合スコア(平均)が低い、すなわち適合性がより高い場所がある場合には、その場所の情報を提示するようにしてもよい。また、本例では、複数の場所のリストを地図上で示す場合を説明したが、それらから1つの場所を絞り込んで提示してもよい。例えば、所定範囲内で最も音声認識適合スコアがよい場所に絞り込んでもよいし、音声認識適合スコアが閾値を満足しているもののうち最も指定された場所からの距離が近い場所を絞り込んでもよい。   When the location information that matches the conditions is acquired, the nearest optimum location presentation unit 16 displays the location information on the screen of the requesting mobile phone. In this example, the nearest map is displayed, and the latitude / longitude location acquired in S6001 is plotted and displayed (S6002). In addition, when there is no information on a place that matches the condition, the fact is notified, or the distance from the acquired place is within a predetermined range and the voice recognition conformity score ( If there is a place where the average) is low, that is, the fitness is higher, information on the place may be presented. In this example, the case where a list of a plurality of places is shown on the map has been described. However, one place may be narrowed down and presented. For example, it may be narrowed down to a place where the voice recognition suitability score is the best within a predetermined range, or a place where the distance from the most designated place is closest among those where the voice recognition suitability score satisfies the threshold may be narrowed down.

以上のように、本実施形態によれば、音声を残そうとしている場所の音声認識への適合度を元に、適合度が低い場合は、最寄りの適合度の高い場所を提示し移動を促すことで、音声認識結果の誤りを低減させることができる。   As described above, according to the present embodiment, based on the degree of suitability for speech recognition of a place where speech is to be left, if the suitability is low, the nearest place with the best suitability is presented to promote movement. Thus, errors in the speech recognition result can be reduced.

なぜなら、個々の音声認識結果の精度を示す情報(本例では、音声認識結果の修正量)を元に、音声認識場所の音声認識適合スコア(平均)を算出し、その音声認識適合スコア(平均)を判断基準に用いてその場所が音声認識に適しているか否かを判断するからである。なお、本実施形態によれば、音声を残そうとしている場所が屋外であるか屋内である否かに関わらず、また当該利用者が実際にその場所に行ったことがない場合であっても、その場所の音声認識への適否を判断することができる。   Because, based on the information indicating the accuracy of each speech recognition result (in this example, the amount of correction of the speech recognition result), the speech recognition conformity score (average) of the speech recognition location is calculated, and the speech recognition conformity score (average) This is because it is determined whether or not the location is suitable for speech recognition. Note that, according to the present embodiment, regardless of whether the place where the sound is to be left is outdoors or indoors, even if the user has never actually visited the place. It is possible to determine whether or not the place is suitable for voice recognition.

また、本実施形態では、個人の特徴による影響が反映されにくいように音声認識適合スコア(平均)を算出している。例えば、同じ文を複数人が話しても、人によって声の大きさ・発音・かつぜつなどが違うため、音声認識結果の良し悪しは異なる。このため、単純に音声認識テキストの修正量を拠り所として音声認識スコアを算出するだけでは、特定の場所についての適合性を正しく算出することは難しい。音声認識の良し悪しが場所に拠るものなのか、人に拠るものなのかの切り分けが出来ないからである。   Further, in the present embodiment, the speech recognition conformity score (average) is calculated so that the influence due to the individual characteristics is difficult to be reflected. For example, even if multiple people speak the same sentence, the voice recognition result differs depending on the person because the loudness, pronunciation, and illness are different. For this reason, it is difficult to correctly calculate the suitability for a specific place simply by calculating the speech recognition score based on the correction amount of the speech recognition text. This is because it is impossible to determine whether the voice recognition is good or bad depending on the place or the person.

本実施形態では、個人の過去の修正量の平均とその場所での修正量の差を算出し、その結果の値をその場所についての音声認識適合スコアの算出に利用するというように、個人毎の偏りを防ぐための処理を組み込んでいる。このため、より精度よく最寄りの音声認識に適した場所を提示することができる。   In the present embodiment, the difference between the average of the past correction amount of the individual and the correction amount at the location is calculated, and the result value is used for calculating the speech recognition conformity score for the location. Incorporating processing to prevent the bias. For this reason, the place suitable for the nearest speech recognition can be presented with higher accuracy.

また、さまざま利用者の音声認識および認識結果の修正ログを活用して、音声認識場所の音声認識適合スコア(平均)の計算を日々繰り返すので、適合性判断の精度を向上させることができる。   In addition, since the calculation of the speech recognition suitability score (average) of the speech recognition place is repeated every day using the speech recognition of various users and the correction log of the recognition result, the accuracy of the suitability determination can be improved.

なお、上記実施形態では、音声認識結果テーブルに音声認識結果を示す情報として、音声認識テキストを登録する例を示したが、音声認識結果テキストだけでなく、音声認識に影響を与える雑音レベルや、音声認識結果テキストの尤度など、音声認識の結果得られる音声認識結果の精度を示す情報を含んでいてもよい。   In the above embodiment, an example of registering speech recognition text as information indicating the speech recognition result in the speech recognition result table has been shown, but not only the speech recognition result text but also a noise level that affects speech recognition, Information indicating the accuracy of the speech recognition result obtained as a result of speech recognition, such as the likelihood of the speech recognition result text, may be included.

また、上記実施形態では、場所情報として緯度・経度を登録する例を示したが、緯度経度の他に、その場所がどのような場所であるかを示す情報を予め種別化した情報等、音声認識結果に影響を与えるその場所の特性を示す情報を含んでいてもよい。例えば、音声認識適合スコア計算部14は、これら雑音レベルや尤度を場所毎に平均化して音声認識適合スコア(平均)として出力してもよい。そのような場合には、音声認識適合場所判断部15は、出力された場所毎の雑音レベルや尤度の平均が閾値を満足しているか否かを判断して、音声認識に適しているか否かを判断するようにすればよい。なお、修正量の場合と同様、今回の雑音レベルや尤度と、その利用者の過去の雑音レベルや尤度の平均との差を利用して、当該音声の入力場所についての音声認識適合スコアを算出してもよい。   In the above embodiment, an example in which latitude / longitude is registered as location information has been shown. However, in addition to latitude / longitude, information indicating what the location is is classified into information such as information previously classified. Information indicating the characteristics of the location affecting the recognition result may be included. For example, the speech recognition suitability score calculation unit 14 may average these noise levels and likelihoods for each place and output them as a speech recognition suitability score (average). In such a case, the speech recognition conformity location determination unit 15 determines whether or not the average noise level or likelihood for each location that is output satisfies a threshold value, and whether or not it is suitable for speech recognition. What is necessary is just to judge. As in the case of the correction amount, the speech recognition fitness score for the input location of the speech is calculated using the difference between the current noise level and likelihood and the average of the user's past noise level and likelihood. May be calculated.

また、上記実施形態では、1つの場所とする単位を、緯度・経度が一致するか否かで判断する例を示したが、ある一定の基準(半径xm以内や階数、地図等によって示される敷地内等)に沿って同じ場所とされるような単位(そのような分類における場所の範囲)を用いることも可能である。そのような場合には、取得した場所情報によって示される場所が、認識場所テーブルに登録されている場所情報によって示される場所から一定の範囲内に属するか否かを判定すればよい。   In the above embodiment, an example in which the unit of one place is determined based on whether or not the latitude and longitude coincide with each other. However, the site indicated by a certain standard (within radius xm, number of floors, map, etc.) It is also possible to use units (the range of locations in such a classification) that are considered to be the same location along the inside. In such a case, it may be determined whether or not the location indicated by the acquired location information belongs within a certain range from the location indicated by the location information registered in the recognized location table.

また、上記実施形態では、場所についての音声認識結果の精度を示す情報として、音声認識適合スコアを算出する例を示したが、場所についての音声認識結果の精度を示す情報は音声認識適合スコアに限られない。例えば、各音声に対する音声認識スコアをその音声入力場所毎に分類して平均化したものであってもよい。また、例えば、その場所で入力された音声に対する音声認識処理等によって検出された当該音声に含まれる雑音レベルをそのまま用いることも可能である。そのような場合には、音声認識適合スコア計算部14の処理の代わりに、音声認識処理によって検出された雑音レベルを、音声認識結果の精度を示す情報としてその音声が入力された場所の場所情報と対応づけて記憶させればよい。   In the above embodiment, an example is shown in which a speech recognition suitability score is calculated as information indicating the accuracy of the speech recognition result for the place. However, information indicating the accuracy of the speech recognition result for the location is the speech recognition suitability score. Not limited. For example, the voice recognition score for each voice may be classified and averaged for each voice input place. Further, for example, the noise level included in the voice detected by voice recognition processing or the like for the voice input at the place can be used as it is. In such a case, instead of the processing of the speech recognition suitability score calculation unit 14, the noise level detected by the speech recognition processing is used as the location information of the place where the speech is input as information indicating the accuracy of the speech recognition result. Can be stored in association with each other.

上記実施形態では、音声入力を開始する際に、その場所が音声認識に適しているか否かを判定し、適していないと判定された場合に最寄の適合場所を提示する例を示したが、その場所が適しているか否かの情報の出力例はこれに限らない。例えば、音声入力場所の候補とする場所が指定されたときに、その場所についての音声認識結果の精度を示す情報(音声認識適合スコアや、雑音レベル)をそのまま出力することによって利用者側で適否を判断させることも可能である。また、例えば、その情報を基に段階的な評価値(大いに適している/中段階に適している/あまり適していない等)にして出力することも可能である。   In the above embodiment, when voice input is started, it is determined whether or not the place is suitable for voice recognition, and when it is determined that the place is not suitable, the nearest suitable place is presented. The output example of information on whether or not the place is suitable is not limited to this. For example, when a location that is a candidate for a voice input location is designated, information indicating the accuracy of the speech recognition result for that location (speech recognition suitability score or noise level) is output as it is, so that the user can determine whether or not it is appropriate. It is also possible to judge. Further, for example, it is possible to output the evaluation value in a stepwise manner (highly suitable / suitable for a middle step / not so suitable) based on the information.

また、上記実施形態では、音声認識支援サーバ100が、音声認識部11を備える形態を示したが、音声認識部11は外部のシステムであってもよい。そのような場合には、音声認識部11の代わりに、音声認識結果データをその外部のシステムから収集する収集部を備えていればよい。   In the above embodiment, the voice recognition support server 100 includes the voice recognition unit 11. However, the voice recognition unit 11 may be an external system. In such a case, instead of the voice recognition unit 11, a collection unit that collects the voice recognition result data from the external system may be provided.

また、上記実施形態では、音声認識支援サーバ100側で、音声認識処理から最寄最適場所提示処理までの処理を実行する例を示したが、これらの処理を利用者端末単体で実行することも可能である。そのような場合には、利用者端末に音声認識支援装置または音声認識支援プログラムを組み込む形とすればよい。すなわち、利用者端末が、音声認識部11、認識結果テキスト表示部12、認識結果テキスト修正部13、音声認識適合スコア計算部14、音声認識適合場所判断部15、最寄最適場所提示部16とを備える構成であってもよい。また、音声認識部11、認識結果テキスト表示部12、認識結果テキスト修正部13を省略して、本システムでは、各々の音声認識結果の精度を示す情報とその音声の情報として音声入力場所を含む情報とを収集する処理から実装することも可能である。また、これらのうちの一部をサーバ側で、他の部分を端末側に備えてもよい。   In the above embodiment, an example is shown in which the process from the voice recognition process to the nearest optimum place presentation process is executed on the voice recognition support server 100 side. However, these processes may be executed by the user terminal alone. Is possible. In such a case, a speech recognition support device or a speech recognition support program may be incorporated into the user terminal. That is, the user terminal includes a speech recognition unit 11, a recognition result text display unit 12, a recognition result text correction unit 13, a speech recognition conformity score calculation unit 14, a speech recognition conformity place determination unit 15, and a nearest optimum place presentation unit 16. May be provided. Further, the voice recognition unit 11, the recognition result text display unit 12, and the recognition result text correction unit 13 are omitted, and the present system includes a voice input location as information indicating accuracy of each voice recognition result and information of the voice. It is also possible to implement from the process of collecting information. Further, some of these may be provided on the server side and the other part on the terminal side.

例えば、利用者端末側で、認識対象の音声を入力する場所とされる場所情報が入力された場合に、当該場所情報をサーバに送信して、当該場所情報と対応づけられている音声認識適合スコア等を受信し、受信した情報から、その場所が音声認識に適しているか否かの情報を出力するようにしてもよい。そのような場合には、利用者端末側で、サーバから指定された場所についての音声認識結果の精度を示す情報を受信する受信部と、音声認識適合場所判断部15と、最寄最適場所提示部16とを備えるようにすればよい。   For example, when location information, which is a location for inputting speech to be recognized, is input on the user terminal side, the location information is transmitted to the server, and the speech recognition conformity associated with the location information is transmitted. A score or the like may be received, and information on whether or not the location is suitable for voice recognition may be output from the received information. In such a case, on the user terminal side, a receiving unit that receives information indicating the accuracy of the speech recognition result for the location specified from the server, the speech recognition conformity location determination unit 15, and the nearest optimum location presentation What is necessary is just to provide the part 16. FIG.

また、例えば、利用者端末側で、認識対象の音声を入力する場所とされる場所情報が入力された場合に、入力された場所情報が示す場所で入力された各音声に対する音声認識結果の精度を示す情報(雑音レベルや修正量など)を収集し、収集した情報から認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力するようにしてもよい。そのような場合には、利用者端末側で、入力された場所情報が示す場所で入力された各音声に対する音声認識結果の精度を示す情報を収集する収集部と、収集された情報からその場所についての音声認識結果の精度を示す情報を生成する生成部と、音声認識適合場所判断部15と、最寄最適場所提示部16とを備えるようにすればよい。なお、収集された情報からその場所についての音声認識結果の精度を示す情報を生成する生成部として音声認識適合スコア計算部14を備えるようにしてもよい。   Also, for example, when location information that is a location for inputting speech to be recognized is input on the user terminal side, the accuracy of the speech recognition result for each speech input at the location indicated by the input location information Information (noise level, correction amount, etc.) is collected, and information indicating whether or not the location specified as the location where the speech to be recognized is input from the collected information is suitable for speech recognition may be output. Good. In such a case, on the user terminal side, a collection unit that collects information indicating the accuracy of the speech recognition result for each voice input at the location indicated by the input location information, and the location from the collected information What is necessary is just to provide the production | generation part which produces | generates the information which shows the precision of the speech recognition result about, the speech recognition suitable place judgment part 15, and the nearest optimal place presentation part 16. In addition, you may make it provide the speech recognition suitable score calculation part 14 as a production | generation part which produces | generates the information which shows the precision of the speech recognition result about the place from the collected information.

なお、ネットワークを介して音声認識結果データ等の収集を行わずに、当該利用者一人分のデータを記憶する音声認識結果DB17、音声認識場所DB18、利用者DB19を利用者端末が備える構成であっても実現可能である。また、これらのうちの一部をサーバ側で、他の部分を端末側に備えてもよい。   The user terminal includes a voice recognition result DB 17, a voice recognition place DB 18, and a user DB 19 that store data for one user without collecting voice recognition result data or the like via the network. But it is feasible. Further, some of these may be provided on the server side and the other part on the terminal side.

また、上記実施形態では、音声認識結果の修正が確定したタイミングで、音声認識適合スコアを算出・更新し、その値を記憶手段に保持しておき、利用者から音声を残そうとしている場所の適合性の判断要求を受け付けたときに、記憶手段に保持されている音声認識適合スコアを確認し、適合しているか否かを判定を行う例を示したが、記憶手段に保持しておくデータの内容やスコア算出のタイミングはこの限りではない。例えば、データベースには各々の音声認識結果とその修正結果とを蓄積しておき、利用者からの判断要求時に指定された場所情報を基に必要な結果を読み出してその場所についての音声認識適合スコアを算出、適否判定を行うことも可能である。また、例えば、データベースには、変更確定時に算出した音声認識適合スコアとともに、その適否判定結果を示す情報を保持しておき、利用者からの判断要求時には、保持されている適否判定結果を読み込むだけで、その結果を基に応答または最寄最適場所を提示するようにすることも可能である。   In the above embodiment, at the timing when the correction of the voice recognition result is confirmed, the voice recognition suitability score is calculated and updated, the value is stored in the storage means, and the place where the voice is left from the user is stored. The example of checking the speech recognition conformity score held in the storage means when determining the suitability determination request and determining whether or not it conforms is shown, but the data retained in the storage means However, the content and the timing of score calculation are not limited to this. For example, each speech recognition result and its correction result are stored in a database, and a necessary result is read based on location information specified at the time of a judgment request from the user, and a speech recognition conformity score for that location is read. It is also possible to calculate and determine suitability. Further, for example, the database stores information indicating the suitability determination result together with the voice recognition suitability score calculated at the time of confirming the change, and only reads the stored suitability determination result when a determination request is made from the user. Thus, it is possible to present a response or the nearest optimal place based on the result.

実施形態2.
本実施形態では、音声認識した日時の情報を利用する。特定の場所の周囲雑音は、日時や時間によって変化する。例えば、同じ場所でも週末は騒がしいが平日は静か、夏場はうるさいがそれ以外の季節は静か等である。
Embodiment 2. FIG.
In this embodiment, information on the date and time when voice recognition is performed is used. Ambient noise in a specific place changes depending on the date and time. For example, the same place is noisy on weekends but quiet on weekdays, noisy in summer but quiet in other seasons.

本実施形態では、このような特徴を、蓄積しておいた音声入力日時情報を元に音声認識適合スコアに反映させる。すなわち、蓄積しておいた音声認識日時情報から、特定の場所の音声認識適合スコアの特徴を計算して、データとして保持しておくことによって、ユーザが音声認識した日時条件にあった音声認識スコアを返すようにする。   In the present embodiment, such features are reflected in the speech recognition suitability score based on the accumulated speech input date / time information. That is, by calculating the characteristics of the voice recognition conformity score at a specific location from the stored voice recognition date and time information and holding it as data, the voice recognition score that meets the date and time conditions for voice recognition by the user To return.

より具体的には、第1の実施形態の音声認識結果テーブルに、予め定めておいた日時の区分ごと(時間帯ごと、季節ごと、曜日ごと等)の音声認識スコアが登録できるよう音声認識スコア列を追加する。そして、音声認識スコアを音声認識結果テーブルに登録する際に、その音声が入力された日時情報に基づいて分類される区分の音声認識スコア列に登録する。同様に、認識場所テーブルには、予め定めておいた日時の区分ごとの音声認識適合スコアが登録できるようにする。例えば、日時と時間帯と音声認識適合スコアとを対応づけて保持する。また、音声認識適合スコアを求める際には、同一区分の音声認識スコアのみを用いて算出する。   More specifically, the speech recognition score can be registered in the speech recognition result table according to the first embodiment so that a speech recognition score for each predetermined date and time classification (for each time zone, for each season, for each day of the week, etc.) can be registered. Add a column. When the speech recognition score is registered in the speech recognition result table, the speech recognition score is registered in a speech recognition score column of a classification classified based on date / time information on which the speech is input. Similarly, a speech recognition suitability score for each predetermined date and time category can be registered in the recognition place table. For example, the date and time, the time zone, and the speech recognition conformity score are stored in association with each other. Further, when obtaining the speech recognition conformity score, it is calculated using only the speech recognition scores of the same category.

例えば、時間帯ごとの音声認識適合スコアを計算するとする。例えば、時間帯を次のように定義しておく。深夜:0〜4時、早朝:4〜6時、午前中:8〜12時、昼間:12〜16時、夕方:16〜19時、夜:19〜24時など。なお、季節や曜日なども任意で定義することでより詳細な情報提供が可能である。   For example, it is assumed that a speech recognition fitness score for each time zone is calculated. For example, the time zone is defined as follows. Midnight: 0-4 o'clock, early morning: 4-6 o'clock, morning: 8-12 o'clock, daytime: 12-16 o'clock, evening: 16-19 o'clock, night: 19-24 o'clock. It is possible to provide more detailed information by arbitrarily defining the season and day of the week.

まず、音声認識結果テーブルから特定の場所に該当する行の情報のみを取得する。該当行の時刻が上記のどの時間帯に合致するかを判定する。算出した音声認識適合スコアは、場所情報、日時情報、時間帯情報とともに、認識場所テーブルに登録する。このとき、場所情報と時間帯情報とが一致する音声認識適合スコア(平均)が既に登録されていれば、今回算出した音声認識適合スコアを加味して平均を再計算する。さらに、時間帯を考慮しない音声認識適合スコアも算出しておく。   First, only information on a row corresponding to a specific place is acquired from the speech recognition result table. It is determined which time zone the time of the corresponding row matches. The calculated speech recognition suitability score is registered in the recognition place table together with the place information, date / time information, and time zone information. At this time, if a speech recognition suitability score (average) in which the location information and the time zone information match is already registered, the average is recalculated taking into account the speech recognition suitability score calculated this time. Furthermore, a speech recognition suitability score that does not consider the time zone is also calculated.

音声認識適合場所判断処理では、認識場所テーブルの同一時間帯の音声認識適合スコア(平均)と、時間帯を考慮しない音声認識適合スコア(平均)すなわち第1の実施形態と同じ方法で求めた場所についての音声認識適合スコア(平均)とを比較し、前者の方が高い場合には、指定された時間帯ではその場所が認識に適していないと判断し、同一時間帯において音声認識適合スコアが低い最寄の場所を提示する。   In the speech recognition suitability place determination process, the speech recognition suitability score (average) in the same time zone of the recognition place table and the speech recognition suitability score (average) not considering the time zone, that is, the place obtained by the same method as in the first embodiment. If the former is higher, the location is not suitable for recognition in the specified time zone, and the voice recognition suitability score is the same for the same time zone. Present the lowest nearest location.

なお、認識場所テーブルの同一時間帯の音声認識適合スコア(平均)と所定の閾値(X)とを比較して、適否判断を行うことも可能である。   It is also possible to determine suitability by comparing the speech recognition suitability score (average) in the same time zone of the recognition location table with a predetermined threshold (X).

以上のように、本実施形態によれば、より正確な情報提供を行うことができるので、利用者が外出先等で音声を入力して音声認識を行う場合においてその場所で入力された音声の音声認識結果の誤りをより低減させることができる。   As described above, according to the present embodiment, more accurate information can be provided. Therefore, when a user performs voice recognition by inputting voice while away from home, the voice input at the place Errors in speech recognition results can be further reduced.

次に、本発明の概要について説明する。図16は、本発明の概要を示すブロック図である。図16に示すように、本発明の音声認識支援システム500は、記憶手段501と、音声認識場所適否情報出力手段502とを備える。   Next, the outline of the present invention will be described. FIG. 16 is a block diagram showing an outline of the present invention. As shown in FIG. 16, the speech recognition support system 500 of the present invention includes a storage unit 501 and a speech recognition location suitability information output unit 502.

記憶手段501は、場所を示す場所情報と、場所についての音声認識結果の精度を示す情報とを対応づけて記憶する。記憶手段501は、上記実施形態では、認識場所適合DB18として開示されている。   The storage unit 501 stores location information indicating a location and information indicating the accuracy of the speech recognition result for the location in association with each other. The storage unit 501 is disclosed as the recognition location matching DB 18 in the above embodiment.

音声認識場所適否情報出力手段502は、記憶手段501に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する。   The voice recognition place suitability information output unit 502 is a place designated as a place to input the speech to be recognized based on the place information stored in association with the storage unit 501 and the information indicating the accuracy of the voice recognition result. Outputs whether or not is suitable for voice recognition.

なお、ここで「出力」とは、1つの装置内における処理部単位でのメッセージ送信や、モジュール間でのデータの出力を含むものとする。また、記憶手段を介して他の手段に情報が渡る場合にはその記憶手段に書き込む場合も含むものとする。   Here, “output” includes message transmission in units of processing units within one apparatus and output of data between modules. In addition, when information is passed to other means via the storage means, the case of writing to the storage means is also included.

また、音声認識支援システム500は、ある場所で入力された音声に対する音声認識処理によって検出された当該音声に含まれる雑音レベルを、該場所についての音声認識結果の精度を示す情報として用いてもよい。例えば、記憶手段501は、ある場所で入力された音声に対する音声認識処理によって検出された当該音声に含まれる雑音レベルを、該場所についての音声認識結果の精度を示す情報として、場所情報と対応づけて記憶してもよい。   In addition, the speech recognition support system 500 may use the noise level included in the speech detected by the speech recognition process for the speech input at a certain location as information indicating the accuracy of the speech recognition result for the location. . For example, the storage unit 501 associates the noise level included in the voice detected by the voice recognition process with respect to the voice input at a certain location with the location information as information indicating the accuracy of the voice recognition result for the location. May be stored.

また、記憶手段501は、場所情報に対応づけるとともに、音声が入力された日時情報に基づいて分類される所定の区分に分けて、場所についての音声認識結果の精度を示す情報を記憶し、音声認識場所適否情報出力手段502は、記憶手段501に指定された場所の場所情報と対応づけて記憶されている音声認識結果の精度を示す情報のうち現在の日時が分類される所定の区分に属する音声認識結果の精度を示す情報に基づいて、指定された場所が音声認識に適しているか否かの情報を出力してもよい。   In addition, the storage unit 501 stores information indicating the accuracy of the speech recognition result for the location, in association with the location information, and divided into predetermined categories classified based on the date and time information when the speech is input. The recognition place suitability information output unit 502 belongs to a predetermined category in which the current date and time is classified among the information indicating the accuracy of the speech recognition result stored in association with the place information of the place specified in the storage unit 501. Based on the information indicating the accuracy of the speech recognition result, information indicating whether or not the designated location is suitable for speech recognition may be output.

また、音声認識場所適否情報出力手段は502、記憶手段501に指定された場所についての音声認識結果の精度を示す情報が記憶されている場合に、該音声認識結果の精度を示す情報を、指定された場所が音声認識に適した場所か否かの情報として出力してもよい。   The speech recognition location suitability information output unit 502 designates information indicating the accuracy of the speech recognition result when information indicating the accuracy of the speech recognition result for the location specified in the storage unit 501 is stored. It may be output as information as to whether or not the determined location is suitable for speech recognition.

また、音声認識場所適否情報出力手段502は、記憶手段501に指定された場所についての音声認識結果の精度を示す情報が記憶されている場合に、該音声認識結果の精度を示す情報によって示される音声認識結果の精度が所定の条件を満たしているか否かを判定し、判定の結果を、指定された場所が音声認識に適した場所か否かの情報として出力してもよい。   The voice recognition location suitability information output unit 502 is indicated by information indicating the accuracy of the voice recognition result when information indicating the accuracy of the voice recognition result for the location specified in the storage unit 501 is stored. It may be determined whether or not the accuracy of the speech recognition result satisfies a predetermined condition, and the determination result may be output as information as to whether or not the designated location is a location suitable for speech recognition.

また、図17は、本発明による音声認識支援システム500の他の構成例を示すブロック図である。図17に示すように、音声認識支援システム500は、さらに、音声認識適合スコア算出手段503や、最寄適合場所提示手段504を備えていてもよい。   FIG. 17 is a block diagram showing another configuration example of the speech recognition support system 500 according to the present invention. As shown in FIG. 17, the voice recognition support system 500 may further include a voice recognition suitability score calculation unit 503 and a nearest match place presentation unit 504.

音声認識適合スコア算出手段503は、音声を入力した場所を示す場所情報と、音声に対する音声認識結果の精度を示す情報とに基づいて、場所情報が示す場所の音声認識への適合度を示す音声認識適合スコアを算出する。音声認識適合スコア算出手段503は、上記実施形態では、音声認識部適合スコア計算部14として開示されている。   The voice recognition suitability score calculation means 503 is a voice that indicates the degree of suitability of the place indicated by the place information for voice recognition based on the place information indicating the place where the voice is input and the information indicating the accuracy of the voice recognition result for the voice. A recognition fitness score is calculated. The speech recognition suitability score calculation unit 503 is disclosed as the speech recognition unit suitability score calculation unit 14 in the above embodiment.

そのような場合には、音声認識適合スコア算出手段503によって算出された音声認識適合スコアを、場所についての音声認識結果の精度を示す情報として用いてもよい。例えば、記憶手段501は、音声認識適合スコア算出手段503によって算出された音声認識適合スコアを、該場所についての音声認識結果の精度を示す情報として、場所情報と対応づけて記憶してもよい。なお、ここで対応づける場所情報は、音声を入力した場所を示す場所情報と完全に一致している必要はない。例えば、ある一定の基準に沿って、音声を入力した場所と同じ場所とされるような場所情報を用いてもよい。   In such a case, the speech recognition suitability score calculated by the speech recognition suitability score calculation unit 503 may be used as information indicating the accuracy of the speech recognition result for the place. For example, the storage unit 501 may store the speech recognition suitability score calculated by the speech recognition suitability score calculation unit 503 in association with the location information as information indicating the accuracy of the speech recognition result for the location. Note that the location information associated here does not have to completely match the location information indicating the location where the voice is input. For example, location information that is the same location as the location where the voice is input may be used according to a certain standard.

また、例えば、音声認識適合スコア算出手段503は、ある利用者が話した音声の音声認識結果に対して該利用者が行った修正量を当該音声認識結果の精度を示す情報とみなして、当該音声の入力場所についての音声認識適合スコアを算出してもよい。   Further, for example, the speech recognition suitability score calculation unit 503 regards the amount of correction performed by the user for the speech recognition result of speech spoken by a certain user as information indicating the accuracy of the speech recognition result, and A speech recognition suitability score for the speech input location may be calculated.

また、音声認識適合スコア算出手段503は、ある利用者が話した音声の音声認識結果に対して該利用者が行った修正量と、該利用者の過去の修正量の平均との差を利用して、当該音声の入力場所についての音声認識適合スコアを算出してもよい。   Further, the voice recognition conformity score calculation means 503 uses the difference between the correction amount performed by the user on the voice recognition result of the voice spoken by a certain user and the average of the past correction amount of the user. Then, a speech recognition suitability score for the speech input location may be calculated.

また、音声認識適合スコア算出手段503は、利用者が話した音声に対する音声認識処理によって検出された当該音声に含まれる雑音レベルを、該音声の音声認識結果の精度を示す情報とみなして、当該音声の入力場所についての音声認識適合スコアを算出してもよい。   Further, the speech recognition suitability score calculating unit 503 regards the noise level included in the speech detected by the speech recognition process for the speech spoken by the user as information indicating the accuracy of the speech recognition result of the speech, and A speech recognition suitability score for the speech input location may be calculated.

また、音声認識適合スコア算出手段503は、音声が入力された日時情報に基づいて分類される所定の区分に分けて音声認識適合スコアを算出してもよい。記憶手段501は、場所情報に対応づけるとともに、音声が入力された日時情報に基づいて分類される所定の区分に分けて、音声認識適合スコア算出手段503によって算出された音声認識適合スコアを記憶してもよい。そして、音声認識場所適否情報出力手段501は、現在の日時が分類される所定の区分に属する音声認識適合スコアに基づいて、指定された場所が音声認識に適しているか否かの情報を出力してもよい。   In addition, the speech recognition suitability score calculation unit 503 may calculate the speech recognition suitability score by dividing into predetermined categories classified based on the date and time information when the speech is input. The storage unit 501 stores the speech recognition conformity score calculated by the speech recognition conformity score calculation unit 503 in association with the location information and divided into predetermined categories classified based on the date and time information when the speech is input. May be. Then, the voice recognition place suitability information output unit 501 outputs information on whether or not the designated place is suitable for voice recognition based on the voice recognition suitability score belonging to a predetermined category into which the current date and time is classified. May be.

最寄適合場所提示手段504は、音声認識場所適否情報出力手段502によって出力された指定された場所が音声認識に適しているか否かの情報に基づいて、指定された場所が音声認識に適していないと判定した場合に、指定された場所に近い音声認識に適した場所の情報を出力する。最寄適合場所提示手段504は、上記実施形態では、最寄最適場所提示部16として開示されている。   The nearest matching place presenting means 504 is configured so that the designated place is suitable for voice recognition based on the information on whether or not the designated place output by the voice recognition place suitability information output means 502 is suitable for voice recognition. If it is determined that there is not, information on a place suitable for speech recognition close to the designated place is output. In the above embodiment, the nearest suitable place presentation unit 504 is disclosed as the nearest optimum place presentation unit 16.

なお、最寄適合場所提示手段504は、指定された場所からの距離が所定の範囲内の場所であって、当該場所についての音声認識適合スコアが所定の条件を満たしている場所の情報を出力してもよい。   The nearest compatible place presenting means 504 outputs information on a place where the distance from the designated place is within a predetermined range and the voice recognition conformity score for the place satisfies a predetermined condition. May be.

本発明は、不特定の場所で音声を入力して音声認識を行う可能性のあるシステムであれば好適に適用可能である。   The present invention is preferably applicable to any system that can perform speech recognition by inputting speech at an unspecified location.

100 音声認識支援サーバ
11 音声認識部
12 認識結果テキスト表示部
13 認識結果テキスト修正部
14 音声認識適合スコア計算部
15 音声認識適合場所判断部
16 最寄最適場所提示部
17 音声認識結果データベース
18 音声認識適合場所データベース
19 利用者データベース
200 ネットワーク
301、302、303 利用者端末
31 送受信部
32 音声入力部
33 表示部
34 位置情報入力部
500 音声認識支援システム
501 記憶手段
502 音声認識場所適否情報出力手段
503 音声認識適合スコア算出手段
504 最寄適合場所提示手段
DESCRIPTION OF SYMBOLS 100 Speech recognition support server 11 Speech recognition part 12 Recognition result text display part 13 Recognition result text correction part 14 Speech recognition conformity score calculation part 15 Speech recognition conformity place judgment part 16 Nearest optimum place presentation part 17 Speech recognition result database 18 Speech recognition Applicable location database 19 User database 200 Network 301, 302, 303 User terminal 31 Transmission / reception unit 32 Voice input unit 33 Display unit 34 Location information input unit 500 Voice recognition support system 501 Storage unit 502 Voice recognition location suitability information output unit 503 Audio Recognition conformity score calculation means 504 Nearest conformity place presentation means

Claims (35)

場所を示す場所情報と、前記場所についての音声認識結果の精度を示す情報とを対応づけて記憶する記憶手段と、
前記記憶手段に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力手段とを備えた
ことを特徴とする音声認識支援システム。
Storage means for associating and storing place information indicating a place and information indicating accuracy of a speech recognition result for the place;
Whether or not a location designated as a location for inputting speech to be recognized is suitable for speech recognition based on location information stored in association with the storage means and information indicating accuracy of speech recognition results A speech recognition support system comprising speech recognition place suitability information output means for outputting information.
音声を入力した場所を示す場所情報と、前記音声に対する音声認識結果の精度を示す情報とに基づいて、前記場所情報が示す場所の音声認識への適合度を示す音声認識適合スコアを算出する音声認識適合スコア算出手段を備え、
前記音声認識適合スコア算出手段によって算出された音声認識適合スコアを、前記場所についての音声認識結果の精度を示す情報として用いる
請求項1に記載の音声認識支援システム。
A voice for calculating a voice recognition suitability score indicating a degree of suitability of the place indicated by the location information for voice recognition based on the place information indicating the place where the voice is input and the information indicating the accuracy of the voice recognition result for the voice. It has a recognition fitness score calculation means,
The speech recognition support system according to claim 1, wherein the speech recognition suitability score calculated by the speech recognition suitability score calculation unit is used as information indicating accuracy of a speech recognition result for the place.
音声認識適合スコア算出手段は、ある利用者が話した音声の音声認識結果に対して前記利用者が行った修正量を前記音声に対する音声認識結果の精度を示す情報とみなして、前記音声の入力場所についての音声認識適合スコアを算出する
請求項2に記載の音声認識支援システム。
The speech recognition conformity score calculating means regards the amount of correction made by the user for the speech recognition result of speech spoken by a certain user as information indicating the accuracy of the speech recognition result for the speech, and inputs the speech The speech recognition support system according to claim 2, wherein a speech recognition conformity score for a place is calculated.
音声認識適合スコア算出手段は、ある利用者が話した音声の音声認識結果に対して前記利用者が行った修正量と、前記利用者の過去の修正量の平均との差を利用して、前記音声の入力場所についての音声認識適合スコアを算出する
請求項3に記載の音声認識支援システム。
The voice recognition conformity score calculation means uses the difference between the correction amount performed by the user on the voice recognition result of the voice spoken by a certain user and the average of the past correction amount of the user, The speech recognition support system according to claim 3, wherein a speech recognition conformity score for the speech input location is calculated.
音声認識適合スコア算出手段は、ある場所で入力された音声に対する音声認識処理によって検出された当該音声に含まれる雑音レベルを、当該音声に対する音声認識結果の精度を示す情報とみなして、当該音声の入力場所についての音声認識適合スコアを算出する
請求項2に記載の音声認識支援システム。
The voice recognition conformity score calculating means regards the noise level included in the voice detected by the voice recognition process for the voice input at a certain place as information indicating the accuracy of the voice recognition result for the voice, The speech recognition support system according to claim 2, wherein a speech recognition conformity score for the input location is calculated.
ある場所で入力された音声に対する音声認識処理によって検出された当該音声に含まれる雑音レベルを、該場所についての音声認識結果の精度を示す情報として用いる
請求項1に記載の音声認識支援システム。
The speech recognition support system according to claim 1, wherein a noise level included in the speech detected by speech recognition processing for speech input at a certain location is used as information indicating accuracy of a speech recognition result for the location.
記憶手段は、場所情報に対応づけるとともに、音声が入力された日時情報に基づいて分類される所定の区分に分けて、前記場所についての音声認識結果の精度を示す情報を記憶し、
音声認識場所適否情報出力手段は、前記記憶手段に指定された場所の場所情報と対応づけて記憶されている音声認識結果の精度を示す情報のうち現在の日時が分類される前記所定の区分に属する音声認識結果の精度を示す情報に基づいて、指定された場所が音声認識に適しているか否かの情報を出力する
請求項1から請求項6のうちのいずれか1項に記載の音声認識支援システム。
The storage means associates with the location information and stores information indicating the accuracy of the speech recognition result for the location divided into predetermined categories classified based on the date and time information when the speech is input,
The voice recognition place suitability information output means is arranged in the predetermined category into which the current date and time are classified among the information indicating the accuracy of the voice recognition result stored in association with the place information of the place designated in the storage means. The voice recognition according to any one of claims 1 to 6, wherein information indicating whether or not the designated place is suitable for voice recognition is output based on information indicating accuracy of a voice recognition result to which the voice recognition belongs. Support system.
音声認識場所適否情報出力手段は、記憶手段に指定された場所についての音声認識結果の精度を示す情報が記憶されている場合に、該音声認識結果の精度を示す情報を、指定された場所が音声認識に適した場所か否かの情報として出力する
請求項1から請求項7のうちのいずれか1項に記載の音声認識支援システム。
The speech recognition location suitability information output means, when information indicating the accuracy of the speech recognition result for the specified location is stored in the storage means, the information indicating the accuracy of the speech recognition result is stored in the specified location The voice recognition support system according to any one of claims 1 to 7, wherein the voice recognition support system outputs the information as to whether the place is suitable for voice recognition.
音声認識場所適否情報出力手段は、記憶手段に指定された場所についての音声認識結果の精度を示す情報が記憶されている場合に、該音声認識結果の精度を示す情報によって示される音声認識結果の精度が所定の条件を満たしているか否かを判定し、判定の結果を、指定された場所が音声認識に適した場所か否かの情報として出力する
請求項1から請求項8のうちのいずれか1項に記載の音声認識支援システム。
The speech recognition location suitability information output means, when information indicating the accuracy of the speech recognition result for the location specified in the storage means is stored, the speech recognition result of the speech recognition result indicated by the information indicating the accuracy of the speech recognition result The determination is made as to whether or not the accuracy satisfies a predetermined condition, and the result of the determination is output as information as to whether or not the designated location is suitable for speech recognition. The speech recognition support system according to claim 1.
音声認識場所適否情報出力手段によって出力された前記指定された場所が音声認識に適しているか否かの情報に基づいて、指定された場所が音声認識に適していないと判定した場合に、指定された場所に近い音声認識に適した場所の情報を出力する最寄適合場所提示手段を備えた
請求項1から請求項9のうちのいずれか1項に記載の音声認識支援システム。
Specified when it is determined that the designated location is not suitable for speech recognition based on the information on whether or not the designated location output by the speech recognition location suitability information output means is suitable for speech recognition. The voice recognition support system according to any one of claims 1 to 9, further comprising a nearest matching place presentation unit that outputs information on a place suitable for voice recognition close to a different place.
最寄適合場所提示手段は、指定された場所からの距離が所定の範囲内の場所であって、当該場所についての音声認識結果の精度が所定の条件を満たしている場所の情報を出力する
請求項10に記載の音声認識支援システム。
The nearest compatible place presentation means outputs information on a place whose distance from the designated place is within a predetermined range and the accuracy of the voice recognition result for the place satisfies a predetermined condition. Item 11. The speech recognition support system according to Item 10.
場所を示す場所情報と、前記場所についての音声認識結果の精度を示す情報とを対応づけて記憶する記憶手段と、
前記記憶手段に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力手段とを備えた
ことを特徴とする音声認識支援装置。
Storage means for associating and storing place information indicating a place and information indicating accuracy of a speech recognition result for the place;
Whether or not a location designated as a location for inputting speech to be recognized is suitable for speech recognition based on location information stored in association with the storage means and information indicating accuracy of speech recognition results A speech recognition support apparatus comprising speech recognition place suitability information output means for outputting information.
音声を入力した場所を示す場所情報と、前記音声に対する音声認識結果の精度を示す情報とに基づいて、前記場所情報が示す場所の音声認識への適合性を示す音声認識適合スコアを算出する音声認識適合スコア算出手段を備え、
前記音声認識適合スコア算出手段によって算出された音声認識適合スコアを、前記場所についての音声認識結果の精度を示す情報として用いる
請求項12に記載の音声認識支援装置。
A voice for calculating a voice recognition suitability score indicating suitability for voice recognition of the place indicated by the location information based on the location information indicating the place where the voice is input and the information indicating the accuracy of the voice recognition result for the voice. It has a recognition fitness score calculation means,
The speech recognition support device according to claim 12, wherein the speech recognition suitability score calculated by the speech recognition suitability score calculation unit is used as information indicating accuracy of a speech recognition result for the place.
ある場所で入力された音声に対する音声認識処理によって検出された当該音声に含まれる雑音レベルを、該場所についての音声認識結果の精度を示す情報として用いる
請求項12に記載の音声認識支援装置。
The speech recognition support device according to claim 12, wherein a noise level included in the speech detected by speech recognition processing for speech input at a location is used as information indicating accuracy of a speech recognition result for the location.
記憶手段は、場所情報に対応づけるとともに、音声が入力された日時情報に基づいて分類される所定の区分に分けて、前記場所についての音声認識結果の精度を示す情報を記憶し、
音声認識場所適否情報出力手段は、前記記憶手段に指定された場所の場所情報と対応づけて記憶されている音声認識結果の精度を示す情報のうち現在の日時が分類される前記所定の区分に属する音声認識結果の精度を示す情報に基づいて、指定された場所が音声認識に適しているか否かの情報を出力する
請求項12から請求項14のうちのいずれか1項に記載の音声認識支援装置。
The storage means associates with the location information and stores information indicating the accuracy of the speech recognition result for the location divided into predetermined categories classified based on the date and time information when the speech is input,
The voice recognition place suitability information output means is arranged in the predetermined category into which the current date and time are classified among the information indicating the accuracy of the voice recognition result stored in association with the place information of the place designated in the storage means. The voice recognition according to any one of claims 12 to 14, wherein information indicating whether or not the designated place is suitable for voice recognition is output based on information indicating accuracy of a voice recognition result to which the voice recognition belongs. Support device.
音声認識場所適否情報出力手段は、記憶手段に指定された場所についての音声認識結果の精度を示す情報が記憶されている場合に、該音声認識結果の精度を示す情報を、指定された場所が音声認識に適した場所か否かの情報として出力する
請求項12から請求項15のうちのいずれか1項に記載の音声認識支援装置。
The speech recognition location suitability information output means, when information indicating the accuracy of the speech recognition result for the specified location is stored in the storage means, the information indicating the accuracy of the speech recognition result is stored in the specified location The speech recognition support device according to any one of claims 12 to 15, wherein the speech recognition support device outputs the information as to whether the place is suitable for speech recognition.
音声認識場所適否情報出力手段によって出力された、指定された場所が音声認識に適しているか否かの情報に基づいて、前記指定された場所が音声認識に適していないと判定した場合に、前記指定された場所に近い音声認識に適した場所の情報を出力する最寄適合場所提示手段を備えた
請求項12から請求項16のうちのいずれか1項に記載の音声認識支援装置。
When it is determined that the designated location is not suitable for speech recognition based on the information on whether the designated location is suitable for speech recognition, which is output by the speech recognition location suitability information output unit, The speech recognition support apparatus according to any one of claims 12 to 16, further comprising a nearest matching place presentation unit that outputs information on a place suitable for speech recognition close to a designated place.
認識対象の音声を入力する場所とされる場所情報が入力された場合に、前記場所情報を所定のサーバ装置に送信して、前記場所情報と対応づけられている前記場所についての音声認識結果の精度を示す情報を受信する場所認識結果精度情報受信手段と、
前記場所情報と、前記場所認識結果精度情報受信手段が受信した前記場所についての音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力手段とを備えた
ことを特徴とする利用者端末。
When location information, which is a location for inputting speech to be recognized, is input, the location information is transmitted to a predetermined server device, and a speech recognition result for the location associated with the location information is transmitted. A location recognition result accuracy information receiving means for receiving information indicating accuracy;
Based on the location information and the information indicating the accuracy of the speech recognition result for the location received by the location recognition result accuracy information receiving means, a location designated as a location for inputting the speech to be recognized is used for speech recognition. A user terminal comprising voice recognition location suitability information output means for outputting information on suitability.
認識対象の音声を入力する場所とされる場所情報が入力された場合に、入力された場所情報が示す場所で入力された各音声に対する音声認識結果の精度を示す情報を収集する音声認識結果精度情報収集手段と、
前記音声認識結果精度情報収集手段によって収集された各音声に対する音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力手段とを備えた
ことを特徴とする利用者端末。
Voice recognition result accuracy that collects information indicating the accuracy of the voice recognition result for each voice input at the location indicated by the input location information when the location information that is the location where the speech to be recognized is input is input Information gathering means;
Whether or not a location designated as a location for inputting speech to be recognized is suitable for speech recognition based on information indicating accuracy of speech recognition results for each speech collected by the speech recognition result accuracy information collecting means And a voice recognition location suitability information output means for outputting the information.
音声認識結果精度情報収集手段によって収集された音声認識結果の精度を示す情報とに基づいて、入力された場所情報が示す場所の音声認識への適合性を示す音声認識適合スコアを算出する音声認識適合スコア算出手段を備え、
音声認識場所適否情報出力手段は、前記音声認識適合スコア算出手段によって算出された音声認識適合スコアに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する
請求項19に記載の利用者端末。
Speech recognition for calculating a speech recognition conformity score indicating suitability for speech recognition of the location indicated by the input location information based on information indicating the accuracy of the speech recognition result collected by the speech recognition result accuracy information collecting means A fitness score calculation means,
The voice recognition place suitability information output means is based on the voice recognition suitability score calculated by the voice recognition suitability score calculation means to determine whether or not the place designated as the place to input the speech to be recognized is suitable for voice recognition. The user terminal according to claim 19.
音声認識場所適否情報出力手段によって出力された、指定された場所が音声認識に適しているか否かの情報に基づいて、前記指定された場所が音声認識に適していないと判定した場合に、前記指定された場所に近い音声認識に適した場所の情報を出力する最寄適合場所提示手段を備えた
請求項18から請求項20のうちのいずれか1項に記載の利用者端末。
When it is determined that the designated location is not suitable for speech recognition based on the information on whether the designated location is suitable for speech recognition, which is output by the speech recognition location suitability information output unit, The user terminal according to any one of claims 18 to 20, further comprising a nearest matching place presentation unit that outputs information on a place suitable for speech recognition close to a designated place.
認識対象の音声を入力する場所とされる場所情報として、当該利用者端末の現在の位置情報を入力する位置情報入力手段を備えた
請求項18から請求項21のうちのいずれか1項に記載の利用者端末。
The location information input means for inputting the current location information of the user terminal as the location information that is used as a location for inputting the speech to be recognized is described in any one of claims 18 to 21. User terminal.
場所を示す場所情報と、前記場所についての音声認識結果の精度を示す情報とを対応づけて所定の記憶装置に記憶しておき、
前記記憶装置に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する
ことを特徴とする音声認識支援方法。
The location information indicating the location and the information indicating the accuracy of the speech recognition result for the location are associated with each other and stored in a predetermined storage device,
Whether or not a location designated as a location for inputting speech to be recognized is suitable for speech recognition based on location information stored in association with the storage device and information indicating accuracy of speech recognition results A speech recognition support method characterized by outputting information.
音声を入力した場所を示す場所情報と、前記音声に対する音声認識結果の精度を示す情報とに基づいて、前記場所情報が示す場所の音声認識への適合度を示す音声認識適合スコアを算出し、
前記算出された音声認識適合スコアを前記場所についての音声認識結果の精度を示す情報として用いる
請求項23に記載の音声認識支援方法。
Based on the location information indicating the location where the speech is input and the information indicating the accuracy of the speech recognition result for the speech, a speech recognition suitability score indicating the suitability for speech recognition of the location indicated by the location information is calculated,
The speech recognition support method according to claim 23, wherein the calculated speech recognition conformity score is used as information indicating accuracy of a speech recognition result for the place.
ある利用者が話した音声の音声認識結果に対して前記利用者が行った修正量を前記音声に対する音声認識結果の精度を示す情報とみなして、前記音声の入力場所についての音声認識適合スコアを算出する
請求項24に記載の音声認識支援方法。
Considering the amount of correction performed by the user for the speech recognition result of speech spoken by a certain user as information indicating the accuracy of the speech recognition result for the speech, the speech recognition fitness score for the input location of the speech is The speech recognition support method according to claim 24.
ある場所で入力された音声に対する音声認識処理によって検出された当該音声に含まれる雑音レベルを、当該音声に対する音声認識結果の精度を示す情報とみなして、当該音声の入力場所についての音声認識適合スコアを算出する
請求項24に記載の音声認識支援方法。
Considering the noise level included in the voice detected by the voice recognition process for the voice input at a certain place as information indicating the accuracy of the voice recognition result for the voice, the voice recognition conformity score for the voice input place The speech recognition support method according to claim 24.
ある場所で入力された音声に対する音声認識処理によって検出された当該音声に含まれる雑音レベルを、該場所についての音声認識結果の精度を示す情報として用いる
請求項23に記載の音声認識支援方法。
The speech recognition support method according to claim 23, wherein a noise level included in the speech detected by speech recognition processing for speech input at a location is used as information indicating accuracy of a speech recognition result for the location.
場所情報に対応づけるとともに、音声が入力された日時情報に基づいて分類される所定の区分に分けて、前記場所についての音声認識結果の精度を示す情報を記憶しておき、
指定された場所の場所情報と対応づけて記憶されている音声認識結果の精度を示す情報のうち現在の日時が分類される前記所定の区分に属する音声認識結果の精度を示す情報に基づいて、指定された場所が音声認識に適しているか否かの情報を出力する
請求項23から請求項27のうちのいずれか1項に記載の音声認識支援方法。
Corresponding to the location information, and storing the information indicating the accuracy of the speech recognition result for the location, divided into predetermined categories classified based on the date and time information when the voice is input,
Based on the information indicating the accuracy of the speech recognition result belonging to the predetermined category in which the current date and time is classified among the information indicating the accuracy of the speech recognition result stored in association with the location information of the designated location, The speech recognition support method according to any one of claims 23 to 27, wherein information indicating whether or not the designated location is suitable for speech recognition is output.
所定の記憶装置に指定された場所についての音声認識結果の精度を示す情報が記憶されている場合に、該音声認識結果の精度を示す情報を、指定された場所が音声認識に適した場所か否かの情報として出力する
請求項23から請求項28のうちのいずれか1項に記載の音声認識支援方法。
If the information indicating the accuracy of the speech recognition result for the designated location is stored in the predetermined storage device, the information indicating the accuracy of the speech recognition result is determined based on whether the designated location is suitable for speech recognition. The speech recognition support method according to any one of claims 23 to 28, which is output as information on whether or not.
所定の記憶装置に指定された場所についての音声認識結果の精度を示す情報が記憶されている場合に、該音声認識結果の精度を示す情報によって示される音声認識結果の精度が所定の条件を満たしているか否かを判定し、判定の結果を、指定された場所が音声認識に適した場所か否かの情報として出力する
請求項23から請求項28のうちのいずれか1項に記載の音声認識支援方法。
When information indicating the accuracy of the speech recognition result for the designated location is stored in the predetermined storage device, the accuracy of the speech recognition result indicated by the information indicating the accuracy of the speech recognition result satisfies a predetermined condition. The voice according to any one of claims 23 to 28, wherein whether or not the designated place is a place suitable for voice recognition is output. Recognition support method.
出力された前記指定された場所が音声認識に適しているか否かの情報に基づいて、指定された場所が音声認識に適していないと判定した場合に、指定された場所に近い音声認識に適した場所の情報を出力する
請求項23から請求項30のうちのいずれか1項に記載の音声認識支援方法。
Suitable for speech recognition close to the specified location when it is determined that the specified location is not suitable for speech recognition based on the output information on whether the specified location is suitable for speech recognition The speech recognition support method according to any one of claims 23 to 30, wherein information on the location of the location is output.
コンピュータに、
場所を示す場所情報と、前記場所についての音声認識結果の精度を示す情報とを対応づけて所定の記憶装置に記憶させる記憶処理、および
認識対象の音声を入力する場所とされる場所情報が入力された場合に、前記記憶装置に記憶されている前記指定された場所についての音声認識結果の精度を示す情報を出力する場所認識結果精度情報出力処理
を実行させる音声認識支援プログラム。
On the computer,
Location information indicating the location and information indicating the accuracy of the speech recognition result for the location are stored in a predetermined storage device in association with each other, and location information used as a location for inputting the speech to be recognized is input. A speech recognition support program for executing a location recognition result accuracy information output process for outputting information indicating the accuracy of the speech recognition result for the designated location stored in the storage device.
コンピュータに、
場所を示す場所情報と、前記場所についての音声認識結果の精度を示す情報とを対応づけて所定の記憶装置に記憶させる記憶処理、および
前記記憶装置に対応づけて記憶されている場所情報と音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力処理
を実行させる音声認識支援プログラム。
On the computer,
A storage process in which location information indicating a location and information indicating the accuracy of a voice recognition result for the location are associated with each other and stored in a predetermined storage device, and the location information and audio stored in association with the storage device A voice that executes voice recognition location suitability information output processing that outputs information indicating whether or not a location designated as a location to which speech to be recognized is input is suitable for voice recognition based on information indicating accuracy of the recognition result Recognition support program.
コンピュータに、
認識対象の音声を入力する場所とされる場所情報が入力された場合に、前記場所情報を所定のサーバ装置に送信して、前記場所情報と対応づけられている前記場所についての音声認識結果の精度を示す情報を受信する受信処理、および
前記場所情報と、前記受信した前記場所についての音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力処理
を実行させる音声認識支援プログラム。
On the computer,
When location information, which is a location for inputting speech to be recognized, is input, the location information is transmitted to a predetermined server device, and a speech recognition result for the location associated with the location information is transmitted. A reception process for receiving information indicating accuracy, and a location designated as a location for inputting recognition target speech based on the location information and information indicating accuracy of a speech recognition result for the received location. A speech recognition support program for executing speech recognition place suitability information output processing for outputting information on whether or not it is suitable for speech recognition.
コンピュータに、
認識対象の音声を入力する場所とされる場所情報が入力された場合に、入力された場所情報が示す場所で入力された音声に対する音声認識結果の精度を示す情報を収集する収集処理、および
前記場所情報と、前記収集された音声認識結果の精度を示す情報とに基づいて、認識対象の音声を入力する場所として指定された場所が音声認識に適しているか否かの情報を出力する音声認識場所適否情報出力処理
を実行させる音声認識支援プログラム。
On the computer,
A collection process for collecting information indicating accuracy of a speech recognition result for a voice input at a location indicated by the input location information when location information that is a location for inputting a speech to be recognized is input; and Based on the location information and the information indicating the accuracy of the collected speech recognition result, speech recognition that outputs information indicating whether or not the location designated as the location for inputting the speech to be recognized is suitable for speech recognition A speech recognition support program that executes location adequacy information output processing.
JP2010239928A 2010-10-26 2010-10-26 Speech recognition support system, speech recognition support device, user terminal, method and program Expired - Fee Related JP5370335B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010239928A JP5370335B2 (en) 2010-10-26 2010-10-26 Speech recognition support system, speech recognition support device, user terminal, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010239928A JP5370335B2 (en) 2010-10-26 2010-10-26 Speech recognition support system, speech recognition support device, user terminal, method and program

Publications (2)

Publication Number Publication Date
JP2012093508A true JP2012093508A (en) 2012-05-17
JP5370335B2 JP5370335B2 (en) 2013-12-18

Family

ID=46386905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010239928A Expired - Fee Related JP5370335B2 (en) 2010-10-26 2010-10-26 Speech recognition support system, speech recognition support device, user terminal, method and program

Country Status (1)

Country Link
JP (1) JP5370335B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179426A1 (en) * 2017-03-31 2018-10-04 株式会社オプティム Speech recognition correcting system, method, and program
EP3806090A4 (en) * 2018-05-31 2021-07-21 Sony Corporation Information processing device, information processing method, and program

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675588A (en) * 1992-08-27 1994-03-18 Fujitsu Ltd Speech recognition device
JPH0854250A (en) * 1994-08-10 1996-02-27 Fujitsu Ten Ltd Voice processor
JP2004046106A (en) * 2002-05-15 2004-02-12 Pioneer Electronic Corp Speech recognition device and speech recognition program
JP2004163458A (en) * 2002-11-08 2004-06-10 Sony Corp Speech recognition apparatus
JP2005084253A (en) * 2003-09-05 2005-03-31 Matsushita Electric Ind Co Ltd Sound processing apparatus, method, program and storage medium
JP2005114964A (en) * 2003-10-07 2005-04-28 Xanavi Informatics Corp Method and processor for speech recognition
JP2005173390A (en) * 2003-12-12 2005-06-30 Canon Inc Speech recognition device and method
JP2005227555A (en) * 2004-02-13 2005-08-25 Renesas Technology Corp Voice recognition device
JP2006317722A (en) * 2005-05-13 2006-11-24 Xanavi Informatics Corp Voice processing unit
JP2008062733A (en) * 2006-09-06 2008-03-21 Railway Technical Res Inst System and program for assisting railway facility maintenance and inspection
JP2008242067A (en) * 2007-03-27 2008-10-09 Advanced Telecommunication Research Institute International Voice recognition device, voice recognition system, and voice recognition method
JP2009145924A (en) * 2006-03-27 2009-07-02 Pioneer Electronic Corp Speaker recognition system and computer program
JP2010191223A (en) * 2009-02-18 2010-09-02 Seiko Epson Corp Speech recognition method, mobile terminal and program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675588A (en) * 1992-08-27 1994-03-18 Fujitsu Ltd Speech recognition device
JPH0854250A (en) * 1994-08-10 1996-02-27 Fujitsu Ten Ltd Voice processor
JP2004046106A (en) * 2002-05-15 2004-02-12 Pioneer Electronic Corp Speech recognition device and speech recognition program
JP2004163458A (en) * 2002-11-08 2004-06-10 Sony Corp Speech recognition apparatus
JP2005084253A (en) * 2003-09-05 2005-03-31 Matsushita Electric Ind Co Ltd Sound processing apparatus, method, program and storage medium
JP2005114964A (en) * 2003-10-07 2005-04-28 Xanavi Informatics Corp Method and processor for speech recognition
JP2005173390A (en) * 2003-12-12 2005-06-30 Canon Inc Speech recognition device and method
JP2005227555A (en) * 2004-02-13 2005-08-25 Renesas Technology Corp Voice recognition device
JP2006317722A (en) * 2005-05-13 2006-11-24 Xanavi Informatics Corp Voice processing unit
JP2009145924A (en) * 2006-03-27 2009-07-02 Pioneer Electronic Corp Speaker recognition system and computer program
JP2008062733A (en) * 2006-09-06 2008-03-21 Railway Technical Res Inst System and program for assisting railway facility maintenance and inspection
JP2008242067A (en) * 2007-03-27 2008-10-09 Advanced Telecommunication Research Institute International Voice recognition device, voice recognition system, and voice recognition method
JP2010191223A (en) * 2009-02-18 2010-09-02 Seiko Epson Corp Speech recognition method, mobile terminal and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179426A1 (en) * 2017-03-31 2018-10-04 株式会社オプティム Speech recognition correcting system, method, and program
JP6457154B1 (en) * 2017-03-31 2019-01-23 株式会社オプティム Speech recognition correction system, method and program
EP3806090A4 (en) * 2018-05-31 2021-07-21 Sony Corporation Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5370335B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
US11349991B2 (en) Systems and methods to present voice message information to a user of a computing device
US11392970B2 (en) Administering a digital survey over voice-capable devices
US10922355B2 (en) Method and apparatus for recommending news
CN105448292B (en) A kind of time Speech Recognition System and method based on scene
US9641680B1 (en) Cross-linking call metadata
US9305553B2 (en) Speech recognition accuracy improvement through speaker categories
US20190007510A1 (en) Accumulation of real-time crowd sourced data for inferring metadata about entities
JP6689515B2 (en) Method and apparatus for identifying the type of user geographic location
US20080153465A1 (en) Voice search-enabled mobile device
US9245018B2 (en) Method and system for name pronunciation guide services
US20080015928A1 (en) Business rating method
CN106572272A (en) IVR voice menu determination method and apparatus
CN103348659A (en) Method and apparatus for identifying mobile devices in similar sound environment
US9978081B1 (en) Method and apparatus of requesting customized location information at a mobile station
KR20130133872A (en) Automated conversation assistance
CN112487381A (en) Identity authentication method and device, electronic equipment and readable storage medium
US8126723B1 (en) System and method for improving tuning using caller provided satisfaction scores
EP1875730A1 (en) Method and system for searching and ranking entries stored in a directory
JP5370335B2 (en) Speech recognition support system, speech recognition support device, user terminal, method and program
KR100920442B1 (en) Methods for searching information in portable terminal
US20240061881A1 (en) Place Search by Audio Signals
CN109903006A (en) Reporting method, device, equipment and the computer readable storage medium of building
JP6457154B1 (en) Speech recognition correction system, method and program
US20130173260A1 (en) Device for assessing accuracy of statements and method of operation
CN111161706A (en) Interaction method, device, equipment and system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees