JP2005267399A - Speech dictionary search system and speech dictionary search program - Google Patents

Speech dictionary search system and speech dictionary search program Download PDF

Info

Publication number
JP2005267399A
JP2005267399A JP2004080845A JP2004080845A JP2005267399A JP 2005267399 A JP2005267399 A JP 2005267399A JP 2004080845 A JP2004080845 A JP 2004080845A JP 2004080845 A JP2004080845 A JP 2004080845A JP 2005267399 A JP2005267399 A JP 2005267399A
Authority
JP
Japan
Prior art keywords
data
character string
input
dictionary search
homonym
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004080845A
Other languages
Japanese (ja)
Inventor
Nobumasa Araki
伸昌 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2004080845A priority Critical patent/JP2005267399A/en
Publication of JP2005267399A publication Critical patent/JP2005267399A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a speech dictionary search system and a speech dictionary search program which can reduce false search caused by homonyms. <P>SOLUTION: A speech dictionary search system 10 is equipped with a voice input part 21 to which a voice 20 is inputted, a dictionary part 60 for storing dictionary data, a speech recognition part 22 for generating input character string data 31 corresponding to the inputted voice 20, an object decision part 50 for receiving the input character string data 31 and deciding a candidate for a search object, a dictionary search part 55 for performing the dictionary search by referring to the dictionary data to decide the candidate for the search object, and an output part 70 for outputting the result of the dictionary search. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、音声入力形式の辞書検索システム、及びそのシステムにおいて使用される音声辞書検索プログラムに関する。   The present invention relates to a voice input type dictionary search system and a voice dictionary search program used in the system.

入力した音声を認識して文字列に変換する音声認識装置が知られている。ここで、「音声認識」とは、音声から、話者が伝えようと意図した言語的内容を機械的に抽出することである。   A speech recognition device that recognizes input speech and converts it into a character string is known. Here, “speech recognition” is to mechanically extract the linguistic content that the speaker intends to convey from speech.

特許文献1に開示された音声認識装置は、音声を含む音声情報を入力する手段と、音声の認識に関する状況を検知する手段と、検知された状況を示す状況情報に基づいて、複数の音声認識手段のうち少なくとも1つを選択する手段を有する。ここで、その複数の音声認識手段のそれぞれは、入力された音声の認識処理を実行する。また、上記の状況を示す情報は、話者に関する情報(性別、スピード、方言など)、使用される単語に関する情報、及びノイズ状況のうち少なくとも1つを含む。   The speech recognition apparatus disclosed in Patent Document 1 includes a plurality of speech recognition units based on a unit for inputting speech information including speech, a unit for detecting a situation related to speech recognition, and situation information indicating the detected situation. Means for selecting at least one of the means; Here, each of the plurality of speech recognition means executes a recognition process of the input speech. The information indicating the situation includes at least one of information on the speaker (gender, speed, dialect, etc.), information on the word used, and a noise situation.

また、音声応答システムが知られている。この音声応答システムとして、例えば、CTI(Computer Telephony Integration)システムが挙げられる。このCTIシステムは、電話を介して入力される音声を認識し、入力された音声に基づいて動作したり音声で応答したりすることができる。   A voice response system is also known. As this voice response system, for example, there is a CTI (Computer Telephony Integration) system. This CTI system can recognize voice input via a telephone and can operate based on the input voice or respond with voice.

特許文献2に開示された音声応答装置は、入力された音声信号を認識し、その認識に基づいた応答を行う装置である。この音声応答装置は、音声認識手段と、記憶手段と、実行手段と、確定手段とを備える。音声認識手段は、入力された音声信号を認識する。記憶手段は、単語と、その単語の同音異義語に関する情報とを対応づけた辞書を記憶する。実行手段は、音声認識手段による音声認識結果に同音異義語が含まれる場合、その同音異義語に関する情報に基づいた応答を、上記音声信号の入力元に対して実行する。確定手段は、上記応答に対する入力元の返答に基づいて、音声認識結果を確定する。   The voice response device disclosed in Patent Document 2 is a device that recognizes an input voice signal and makes a response based on the recognition. The voice response device includes voice recognition means, storage means, execution means, and confirmation means. The voice recognition means recognizes the input voice signal. The storage means stores a dictionary in which a word is associated with information related to the homonym of the word. An execution means performs the response based on the information regarding the homonym for a sound input to the input source of the voice signal when the voice recognition result by the voice recognition means includes a homonym. The confirming means confirms the speech recognition result based on the input source response to the response.

特開2003−140691号公報Japanese Patent Laid-Open No. 2003-140991 特開平11−153998号公報JP-A-11-153998

本発明の目的は、同音異義語による誤検索を低減することができる音声辞書検索システム及び音声辞書検索プログラムを提供することにある。   An object of the present invention is to provide a speech dictionary search system and a speech dictionary search program that can reduce erroneous searches due to homonyms.

本発明の他の目的は、ユーザの自由な言い回しに基づいて、複数の同音異義語から所望の単語を検索することができる音声辞書検索システム及び音声辞書検索プログラムを提供することにある。   Another object of the present invention is to provide a speech dictionary search system and a speech dictionary search program capable of searching for a desired word from a plurality of homophones based on a user's free wording.

以下に、[発明を実施するための最良の形態]で使用される番号・符号を用いて、[課題を解決するための手段]を説明する。これらの番号・符号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]との対応関係を明らかにするために括弧付きで付加されたものである。ただし、それらの番号・符号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。   [Means for Solving the Problems] will be described below using the numbers and symbols used in [Best Mode for Carrying Out the Invention]. These numbers and symbols are added in parentheses in order to clarify the correspondence between the description of [Claims] and [Best Mode for Carrying Out the Invention]. However, these numbers and symbols should not be used for the interpretation of the technical scope of the invention described in [Claims].

本発明に係る音声辞書検索システム(10)は、音声(20)が入力される音声入力部(21)と、辞書データ(61、62)を格納する辞書部(60)と、入力された音声(20)に対応する入力文字列データ(31)を生成する音声認識部(22)と、入力文字列データ(31)を受け取り辞書データ(61、62)を参照して検索対象を決定する対象決定部(50)と、決定された検索対象に対して辞書データ(61、62)を参照することにより辞書検索を行う辞書検索部(55)と、その辞書検索の結果を出力する出力部(70)とを備える。また、この対象決定部(50)は、第1判定部(51)と、同音異義語抽出部(52)と、第2判定部(53)とを備える。第1判定部(51)は、少なくとも1つの入力文字列データ(31)から第1文字列データ(32)と第2文字列データとを生成する。この第1文字列データは、第2文字列データが示す内容を補足する内容を有する。同音異義語抽出部(52)は、辞書データ(61、62)を参照して第2文字列データが示す単語の複数の同音異義語を検出し、その複数の同音異義語のそれぞれを示す複数の同音異義語データ(33)を生成する。第2判定部(53)は、複数の同音異義語データ(33)の各々の特性と第1文字列データ(32)の特性との間に共通点があるかどうかを判定する。そして、第2判定部(53)は、複数の同音異義語データ(33)のうち共通点を有する一の同音異義語データ(33)を、上記検索対象を示す検索語データ(34)として辞書検索部(55)に出力する。辞書検索部(55)は、その検索語データ(34)と辞書データ(61、62)に基づき、検索対象に対して辞書検索を行い、その辞書検索の結果を出力部(70)に出力する。   The speech dictionary search system (10) according to the present invention includes a speech input unit (21) to which speech (20) is input, a dictionary unit (60) that stores dictionary data (61, 62), and input speech. A speech recognition unit (22) that generates input character string data (31) corresponding to (20), and a target for determining a search target by receiving input character string data (31) and referring to dictionary data (61, 62) A determination unit (50), a dictionary search unit (55) for performing a dictionary search by referring to the dictionary data (61, 62) with respect to the determined search target, and an output unit for outputting the result of the dictionary search ( 70). Moreover, this object determination part (50) is provided with the 1st determination part (51), the homonym extraction part (52), and the 2nd determination part (53). The first determination unit (51) generates first character string data (32) and second character string data from at least one input character string data (31). The first character string data has contents supplementing the contents indicated by the second character string data. A homonym extraction unit (52) refers to the dictionary data (61, 62), detects a plurality of homonyms of the word indicated by the second character string data, and indicates a plurality of homonyms each of the plurality of homonyms. The homonym data (33) is generated. A 2nd determination part (53) determines whether there exists a common point between the characteristic of each of several homophone data (33), and the characteristic of 1st character string data (32). Then, the second determination unit (53) uses the same homonym data (33) having a common point among the plural homonyms data (33) as a search word data (34) indicating the search target. It outputs to a search part (55). The dictionary search unit (55) performs a dictionary search on the search target based on the search word data (34) and the dictionary data (61, 62), and outputs the dictionary search result to the output unit (70). .

本発明に係る音声辞書検索システム(10)において、第1判定部(51)は、1つの入力文字列データ(31)が示す文字列を、先行する第1文字列と後行する第2文字列とに分割する。そして、第1判定部(51)は、その第1文字列を示すデータを第1文字列データ(32)として設定し、その第2文字列を示すデータを第2文字列データとして設定する。ここで、その第1文字列は、名詞、名詞句、形容詞、形容詞句、動詞、及び動詞句のうち少なくとも1つを含む。また、第2文字列は、名詞あるいは名詞句を含む。この第1文字列は、第2文字列が示す内容を補足説明する内容を有する。   In the speech dictionary search system (10) according to the present invention, the first determination unit (51) includes a second character that follows the character string indicated by one input character string data (31) with the preceding first character string. Split into columns. The first determination unit (51) sets the data indicating the first character string as the first character string data (32), and sets the data indicating the second character string as the second character string data. Here, the first character string includes at least one of a noun, a noun phrase, an adjective, an adjective phrase, a verb, and a verb phrase. The second character string includes a noun or a noun phrase. The first character string has contents that supplementarily explain the contents indicated by the second character string.

また、本発明に係る音声辞書検索システム(10)において、第1判定部(51)は、2つの入力文字列データ(31)のうち、先に入力された入力文字列データ(31)を第2文字列データとして設定し、後に入力された入力文字列データ(31)を第1文字列データ(32)として設定する。ここで、第1文字列データ(32)が示す文字列は、名詞、名詞句、形容詞、形容詞句、動詞及び動詞句のうち少なくとも1つを含む。また、第2文字列データが示す文字列は、名詞あるいは名詞句を含む。この第1文字列データは、第2文字列データが示す内容を補足する内容を有する。   In the speech dictionary search system (10) according to the present invention, the first determination unit (51) uses the input character string data (31) input earlier among the two input character string data (31). Two character string data are set, and input character string data (31) input later is set as first character string data (32). Here, the character string indicated by the first character string data (32) includes at least one of a noun, a noun phrase, an adjective, an adjective phrase, a verb, and a verb phrase. The character string indicated by the second character string data includes a noun or a noun phrase. The first character string data has contents supplementing the contents indicated by the second character string data.

本発明に係る音声辞書検索システム(10´)は、第1判定部(51)に接続された第1ボタン(81)及び第2ボタン(81)を更に備えてもよい。この時、第1判定部(51)は、第1ボタン(81)が押下された時に入力される入力文字列データ(31)を第1文字列データ(32)として設定する。また、第1判定部(51)は、第2ボタン(81)が押下された時に入力される入力文字列データ(31)を第2文字列データとして設定する。   The speech dictionary search system (10 ′) according to the present invention may further include a first button (81) and a second button (81) connected to the first determination unit (51). At this time, the first determination unit (51) sets the input character string data (31) input when the first button (81) is pressed as the first character string data (32). Further, the first determination unit (51) sets the input character string data (31) input when the second button (81) is pressed as the second character string data.

このような音声辞書検索システム(10)において、上記第2判定部(53)は、複数の同音異義語データ(33)が示す単語の読みと、第1文字列データ(32)が示す文字列の読みとの間に、共通の読みがあるかどうかを判定する。そして、第2判定部(53)は、第1文字列データ(32)が示す文字列中から、共通の読みを有する共通部分を抽出し、その共通部分と同一の単語を示す同音異義語データ(33)を、検索語データ(34)として出力する。   In such a speech dictionary search system (10), the second determination unit (53) reads the word indicated by the plural homonym data (33) and the character string indicated by the first character string data (32). It is determined whether there is a common reading between readings. And the 2nd determination part (53) extracts the common part which has a common reading from the character string which 1st character string data (32) shows, and the same sound anomaly data which shows the same word as the common part (33) is output as search term data (34).

また、上記第2判定部(53)は、各々の同音異義語データ(33)が示す文字列と、第1文字列データ(32)が示す文字列との間に、共通の漢字があるかどうかを判定する。そして、この第2判定部(53)は、共通の漢字を含む同音異義語データ(33)を、検索語データ(34)として出力する。   Further, the second determination unit (53) determines whether there is a common kanji character between the character string indicated by each homonym data (33) and the character string indicated by the first character string data (32). Determine if. And this 2nd determination part (53) outputs the homonym synonym data (33) containing a common Chinese character as search word data (34).

更に、上記第2判定部(53)は、辞書データ(61、62)を参照し、各々の同音異義語データ(33)が示す単語の説明文と、第1文字列データ(32)が示す文字列との間に、共通の漢字があるかどうかを判定する。そして、第2判定部(53)は、共通の漢字を含む説明文に対応する同音異義語データ(33)を、検索語データ(34)として出力する。   Further, the second determination unit (53) refers to the dictionary data (61, 62), and the first sentence string data (32) indicates the explanation of the word indicated by each homonym data (33). It is determined whether there is a common Kanji character between the character string. Then, the second determination unit (53) outputs the homonym word data (33) corresponding to the explanatory text including the common kanji as the search word data (34).

このように、本発明に係る音声辞書検索システム(10)によれば、入力された音声(20)から、第2文字列と、その第2文字列を補足説明する第1文字列が生成される。ここで、この第1文字列で用いるべき単語や言い回しに特に制限はない。ユーザは、自分が説明しやすいように任意の単語・語句を用いて、意図する単語を形容すればよい。この音声辞書検索システム(10)は、この第1文字列に含まれる「漢字」や「読み」を参照することにより、第2文字列が複数の同音異義語を有する場合においても、ユーザの意図する単語を検索することができる。つまり、音声(20)や入力文字列データ(31)に込められたユーザの意図が認識される。このように、同音異義語による誤検索が低減され、入力される音声に対して効率よく辞書検索を行うことが可能となる。   Thus, according to the speech dictionary search system (10) according to the present invention, the second character string and the first character string that supplementarily explains the second character string are generated from the input speech (20). The Here, there are no particular restrictions on the words and phrases that should be used in the first character string. The user may describe the intended word using arbitrary words / phrases so that the user can easily explain. This speech dictionary search system (10) refers to “kanji” and “reading” included in the first character string, so that even if the second character string has a plurality of homonyms, You can search for words. That is, the user's intention embedded in the voice (20) or the input character string data (31) is recognized. In this way, erroneous searches due to homonyms are reduced, and a dictionary search can be efficiently performed on input speech.

また、本発明に係る音声辞書検索システム(10)は、対象決定部(50)及び出力部(70)に接続されたユーザ補助部(90)を更に備えてもよい。対象決定部(50)が検索対象を特定できなかった場合、このユーザ補助部(90)は、出力部(70)を通して、発声の誘導・案内・促進をユーザに通知する。これにより、ユーザの利便性が向上する。   The speech dictionary search system (10) according to the present invention may further include a user assistance unit (90) connected to the target determination unit (50) and the output unit (70). When the target determining unit (50) cannot identify the search target, the user auxiliary unit (90) notifies the user of the guidance / guidance / promotion of utterance through the output unit (70). This improves the convenience for the user.

本発明に係る音声辞書検索プログラムは、上述の音声辞書検索システム(10)においてコンピュータにより実行される。すなわち、この音声辞書検索プログラムは、(a)入力される音声(20)に対応する入力文字列データ(31)を生成するステップと、(b)少なくとも1つの入力文字列データ(31)から第1文字列データ(32)と第2文字列データとを生成するステップと、(c)辞書データ(61、62)を参照して第2文字列データが示す単語の複数の同音異義語を検出し、その複数の同音異義語のそれぞれを示す複数の同音異義語データ(33)を生成するステップと、(d)複数の同音異義語データ(33)の各々の特性と第1文字列データ(32)の特性との間に共通点があるかどうかを判定するステップと、(e)複数の同音異義語データ(33)のうち共通点を有する一の同音異義語データ(33)を、辞書検索の対象を示す検索語データ(34)として決定するステップと、(f)辞書データ(61、62)を参照して、上記検索語データが示す対象に対して辞書検索を行うステップとをコンピュータに実行させる。   The speech dictionary search program according to the present invention is executed by a computer in the above-described speech dictionary search system (10). That is, the speech dictionary search program includes (a) a step of generating input character string data (31) corresponding to the input speech (20), and (b) a step of generating at least one input character string data (31). A step of generating one character string data (32) and second character string data, and (c) detecting a plurality of homonyms of the word indicated by the second character string data with reference to dictionary data (61, 62) A step of generating a plurality of homonym data (33) indicating each of the plurality of homonyms, (d) characteristics of each of the homonyms data (33) and first character string data ( 32) determining whether there is a common point with the characteristic of (32), (e) a single homonym word data (33) having a common point among a plurality of homonym word data (33), Search term indicating the target of the search Determining as chromatography data (34), with reference to (f) the dictionary data (61, 62), and a step of performing a dictionary search to the object indicated by the search term data to the computer.

上記(b)生成するステップは、(b−1)1つの入力文字列データ(31)が示す文字列を、先行する第1文字列と後行する第2文字列とに分割するステップと、(b−2)その第1文字列を示すデータを第1文字列データ(32)として設定するステップと、(b−3)その第2文字列を示すデータを第2文字列データとして設定するステップとを含む。この第1文字列は、第2文字列が示す内容を補足説明する内容を有する。   (B) generating step (b-1) dividing a character string indicated by one input character string data (31) into a preceding first character string and a succeeding second character string; (B-2) setting the data indicating the first character string as first character string data (32); and (b-3) setting the data indicating the second character string as second character string data. Steps. The first character string has contents that supplementarily explain the contents indicated by the second character string.

また、上記(b)生成するステップは、(b−4)2つの入力文字列データ(31)のうち先に入力された入力文字列データ(31)を、第2文字列データとして設定するステップと、(b−5)2つの入力文字列データ(31)のうち後に入力された入力文字列データ(31)を、第1文字列データ(32)として設定するステップとを含む。   The step (b) of generating includes the step (b-4) of setting the input character string data (31) input first among the two input character string data (31) as the second character string data. And (b-5) the step of setting the input character string data (31) input later among the two input character string data (31) as the first character string data (32).

上記(d)判定するステップは、(d−1)複数の同音異義語データ(33)が示す単語の読みと、第1文字列データ(32)が示す文字列の読みとの間に、共通の読みがあるかどうかを判定するステップを含む。この時、上記(e)決定するステップは、(e−1)第1文字列データ(32)が示す文字列中から、その共通の読みを有する共通部分を抽出するステップと、(e−2)その共通部分と同一の単語を示す同音異義語データ(33)を、検索語データ(34)として決定するステップとを含む。   The step (d) of determining is common between (d-1) reading of the word indicated by the plural homonym data (33) and reading of the character string indicated by the first character string data (32). Determining whether there are any readings. At this time, the determining step (e) includes (e-1) extracting a common part having the common reading from the character string indicated by the first character string data (32), and (e-2 ) Determining the homonym data (33) indicating the same word as the common part as the search word data (34).

また、上記(d)判定するステップは、(d−2)各々の同音異義語データ(33)が示す文字列と、第1文字列データ(32)が示す文字列との間に、共通の漢字があるかどうかを判定するステップを含む。この時、上記(e)決定するステップは、(e−3)その共通の漢字を含む同音異義語データ(33)を、検索語データ(34)として決定するステップを含む。   The step (d) of determining is common between the character string indicated by each homonym data (33) and the character string indicated by the first character string data (32). Determining whether there is a Chinese character. At this time, the step of determining (e) includes the step of determining (e-3) the homonym data (33) including the common kanji as the search word data (34).

更に、上記(d)判定するステップは、(d−3)辞書データ(61、62)を参照し、各々の同音異義語データ(33)が示す単語の説明文と、第1文字列データ(32)が示す文字列との間に、共通の漢字があるかどうかを判定するステップを含む。この時、上記(e)決定するステップは、(e−4)その共通の漢字を含む説明文に対応する同音異義語データ(33)を、検索語データ(34)として決定するステップを含む。   Further, in the step (d) of determining, (d-3) the dictionary data (61, 62) is referred to, the explanation of the word indicated by each homonym data (33), and the first character string data ( And 32) determining whether there is a common Chinese character between the character string indicated by 32). At this time, the step of determining (e) includes the step of determining (e-4) the homonym data (33) corresponding to the explanatory text including the common kanji as the search word data (34).

本発明に係る音声辞書検索システム及び音声辞書検索プログラムによれば、音声入力式の辞書検索において、同音異義語による誤検索を低減することが可能となる。   According to the speech dictionary search system and the speech dictionary search program according to the present invention, it is possible to reduce erroneous searches due to homonyms in speech input type dictionary searches.

本発明に係る音声辞書検索システム及び音声辞書検索プログラムによれば、ユーザの自由な言い回しに基づいて、複数の同音異義語から所望の単語を検索することが可能となる。   According to the speech dictionary search system and the speech dictionary search program according to the present invention, it is possible to search for a desired word from a plurality of homophones based on a user's free wording.

添付図面を参照して、本発明による音声辞書検索システム及び音声辞書検索プログラムを説明する。   A speech dictionary search system and a speech dictionary search program according to the present invention will be described with reference to the accompanying drawings.

(第一の実施の形態)
図1は、本発明の第一の実施の形態に係る音声辞書検索システムの構成を示すブロック図である。本実施の形態において、音声辞書検索システム10は、音声入力部21、音声認識部22、記憶部30、対象決定部50、辞書検索部55、辞書部60、及び出力部70を備える。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of the speech dictionary search system according to the first embodiment of the present invention. In the present embodiment, the voice dictionary search system 10 includes a voice input unit 21, a voice recognition unit 22, a storage unit 30, a target determination unit 50, a dictionary search unit 55, a dictionary unit 60, and an output unit 70.

音声入力部21には、音声20が入力される。この音声入力部21として、マイクロフォン装置が例示される。この音声入力部21は、入力された音声20をデジタルデータである音声データに変換し、その音声データを音声認識部22に出力する。   The voice 20 is input to the voice input unit 21. An example of the voice input unit 21 is a microphone device. The voice input unit 21 converts the input voice 20 into voice data that is digital data, and outputs the voice data to the voice recognition unit 22.

音声認識部22は、音声入力部21に接続され、音声入力部21から音声データを受け取る。この時、音声認識部22は、一般にディクテーションと呼ばれる文章音声認識を行い、ユーザが自由文で発声した音声を、仮名漢字交じりの文字列に変換する。つまり、この音声認識部22は、周知の音声認識アルゴリズムを用いて(特許文献1参照)、受け取った音声データから入力文字列データ31を生成する。この入力文字列データ31は、入力された音声20に対応するテキストデータであり、その音声20の内容を文字列によって示す。音声認識部22は、入力文字列データ31を記憶部30に出力する。   The voice recognition unit 22 is connected to the voice input unit 21 and receives voice data from the voice input unit 21. At this time, the voice recognition unit 22 performs sentence voice recognition generally called dictation, and converts the voice uttered by the user in a free sentence into a character string mixed with kana and kanji. That is, the voice recognition unit 22 generates the input character string data 31 from the received voice data using a known voice recognition algorithm (see Patent Document 1). The input character string data 31 is text data corresponding to the input voice 20, and the content of the voice 20 is indicated by a character string. The voice recognition unit 22 outputs the input character string data 31 to the storage unit 30.

記憶部30は、音声認識部22から出力される入力文字列データ31を格納する。また、記憶部30は、後述される補足説明データ32、同音異義語データ33、検索語データ34、及び入力テキストパターン40を格納する。この記憶部30として、フラッシュメモリやDRAMなどのメモリが例示される。また、辞書部60は、辞書データを格納する。この辞書データは、一群の単語の見出し61やその単語の説明文62を含む。この辞書部60として、ROMなどのメモリが例示される。   The storage unit 30 stores input character string data 31 output from the speech recognition unit 22. In addition, the storage unit 30 stores supplementary explanation data 32, homonym data 33, search word data 34, and an input text pattern 40 which will be described later. Examples of the storage unit 30 include a memory such as a flash memory and a DRAM. The dictionary unit 60 stores dictionary data. This dictionary data includes a group of word headings 61 and an explanation 62 of the words. The dictionary unit 60 is exemplified by a memory such as a ROM.

対象決定部50は、記憶部30及び辞書部60に接続される。この対象決定部50は、記憶部30から入力文字列データ31を読み出す。そして、後に詳しく説明されるように、対象決定部50は、入力文字列データ31に基づいて、辞書検索の対象となる「検索対象」を決定する。ここで、対象決定部50は、辞書部60に格納された辞書データを参照する。そして、対象決定部50は、その決定された検索対象(見出し61)を示す検索語データ34を、記憶部30に出力する。   The object determining unit 50 is connected to the storage unit 30 and the dictionary unit 60. The target determining unit 50 reads the input character string data 31 from the storage unit 30. Then, as will be described in detail later, the target determining unit 50 determines a “search target” to be a dictionary search target based on the input character string data 31. Here, the target determining unit 50 refers to the dictionary data stored in the dictionary unit 60. Then, the target determining unit 50 outputs the search term data 34 indicating the determined search target (heading 61) to the storage unit 30.

辞書検索部55は、記憶部30に接続され、記憶部30から上記検索語データ34を読み込む。また、辞書検索部55は、辞書部60に接続され、辞書データを参照することによって、検索語データ34が示す検索対象(見出し61)に対して辞書検索を行う。そして、辞書検索部55は、その辞書検索の結果(見出し61及び対応する説明文62)を、出力部70に出力する。   The dictionary search unit 55 is connected to the storage unit 30 and reads the search word data 34 from the storage unit 30. The dictionary search unit 55 is connected to the dictionary unit 60 and performs a dictionary search on the search target (heading 61) indicated by the search word data 34 by referring to the dictionary data. Then, the dictionary search unit 55 outputs the result of the dictionary search (heading 61 and corresponding explanatory text 62) to the output unit 70.

出力部70は、辞書検索部55に接続され、上述の辞書検索の結果をユーザに向けて通知する。図1に示されるように、出力部70は、例えば、液晶ディスプレイや有機ELディスプレイといった表示部72を備える。この時、辞書検索の結果である検索対象(見出し61)及びそれに対応する説明文62は、この表示部72に表示される。ユーザは、表示部72に表示される検索結果を見て、所望の単語の意味を知る、あるいは、続けて音声20を音声入力部21に入力する。   The output unit 70 is connected to the dictionary search unit 55 and notifies the user of the results of the dictionary search described above. As illustrated in FIG. 1, the output unit 70 includes a display unit 72 such as a liquid crystal display or an organic EL display. At this time, the search target (heading 61) and the explanatory text 62 corresponding thereto as a result of the dictionary search are displayed on the display unit 72. The user sees the search result displayed on the display unit 72 to know the meaning of the desired word, or subsequently inputs the voice 20 to the voice input unit 21.

ある検索者がある単語を辞書で引く場合、その検索者は、まずその単語と一致する「見出し」を探す。見出しを探し出した後、その検索者は、その見出しに対応する説明文を読む。しかしながら、ある検索者が、自分が発声する単語を音声入力式辞書検索システムにより検索する場合、その単語には複数の同音異義語が存在する可能性を考慮する必要がある。例えば、「きょうか」という発音の単語に対しては、「強化」、「教科」、「狂歌」、「教化」等の複数の同音異義語が存在する。従って、検索者の発声した単語が、複数の同音異義語のうちどの単語であるかを把握する必要がある。   When a searcher looks up a word in a dictionary, the searcher first looks for a “headline” that matches the word. After finding the headline, the searcher reads the explanatory text corresponding to the headline. However, when a searcher searches for a word spoken by the speech input dictionary search system, it is necessary to consider the possibility that the word has a plurality of homonyms. For example, for the pronunciation word “Kyouka”, there are a plurality of homonyms such as “strengthening”, “subject”, “rage”, “doctorization”, and the like. Therefore, it is necessary to understand which word the searcher uttered is a plurality of homonyms.

複数の同音異義語から意図する単語を選択する場合、しばしば補足的な説明が加えられる。具体的には、「強くする強化」、「松竹梅の竹」、「目標を意味する対象」等の言い回しによって、意図する単語を確定させることが可能である。これらの例において、それぞれ意図する単語は、明らかに「強化」「竹」「対象」である。一方、補足的な説明は、それぞれ「強くする」「松竹梅の」「目標を意味する」というフレーズである。この「意図する単語」及び「補足的な説明」のそれぞれは、以下「目的単語」及び「補足説明」と参照される。   When selecting an intended word from a plurality of homonyms, a supplementary explanation is often added. Specifically, the intended word can be determined by phrases such as “strengthening to strengthen”, “bamboo bamboo and bamboo”, and “object that means goal”. In these examples, the intended words are clearly “strengthening”, “bamboo”, and “subject”. On the other hand, the supplementary explanations are the phrases “strengthen”, “shokutake plum” and “meaning the goal”, respectively. Each of the “intended word” and the “supplementary explanation” is hereinafter referred to as “target word” and “supplementary explanation”.

一般的に、同音異義語を区別する際に用いられる言い回しは、「補足説明(第1文字列)+目的単語(第2文字列)」という型により規定される。「補足説明」の型として、「形容詞(句)」、「動詞(句)」、「名詞(句)+の」、「名詞(句)+を意味する」、「名詞(句)+の意味の」などの型が挙げられる。また、「目的単語」の型として、「名詞(句)」や「形容詞(句)」が挙げられる。上述の記憶部30に記憶される入力テキストパターン40は、このような言い回しの型(パターン)に関するデータである。つまり、入力テキストパターン40は、「補足説明」のパターン、「目的単語」のパターン、及び「補足説明+目的単語」のパターンの全てを示す。   In general, the wording used to distinguish homonyms is defined by the type of “supplementary explanation (first character string) + target word (second character string)”. The types of "supplementary explanation" are "adjective (phrase)", "verb (phrase)", "noun (phrase) + no", "noun (phrase) +" means "noun (phrase) +" Type of "". Examples of the “target word” include “noun (phrase)” and “adjective (phrase)”. The input text pattern 40 stored in the storage unit 30 described above is data relating to such a type of pattern (pattern). That is, the input text pattern 40 indicates all of the “supplemental explanation” pattern, the “target word” pattern, and the “supplemental explanation + target word” pattern.

本発明に係る音声辞書検索システム10によれば、対象決定部50は、パターン判定部51と、同音異義語抽出部52と、検索対象判定部53とを備える。   According to the speech dictionary search system 10 according to the present invention, the target determination unit 50 includes a pattern determination unit 51, a homonym extraction unit 52, and a search target determination unit 53.

このパターン判定部51は、記憶部30から、入力文字列データ31及び入力テキストパターン40を読み込む。そして、パターン判定部51は、上記入力テキストパターン40を参照し、入力文字列データ31に対してパターンマッチング処理を実行する。具体的には、パターン判定部51は、入力文字列データ31が示す文字列(以下、入力文字列と参照される)が、上述の「補足説明+目的単語」のパターンに合致するかどうか判定する。合致する場合、パターン判定部51は、この連続する入力文字列を、先行する「補足説明」と後行する「目的単語」とに分割する。その後、パターン判定部51は、補足説明を示す文字列データを、補足説明データ32として同音異義語抽出部52に出力する。また、パターン判定部51は、目的単語を示す文字列データを、目的単語データとして同音異義語抽出部52に出力する。このように、少なくとも1つの入力文字列データ31から、補足説明データ32及び目的単語データが生成される。   The pattern determination unit 51 reads the input character string data 31 and the input text pattern 40 from the storage unit 30. Then, the pattern determination unit 51 refers to the input text pattern 40 and executes a pattern matching process on the input character string data 31. Specifically, the pattern determination unit 51 determines whether or not the character string indicated by the input character string data 31 (hereinafter referred to as an input character string) matches the above-described “supplemental explanation + target word” pattern. To do. If they match, the pattern determination unit 51 divides the continuous input character string into a preceding “supplementary explanation” and a subsequent “target word”. Thereafter, the pattern determination unit 51 outputs the character string data indicating the supplementary explanation to the homonym extraction unit 52 as the supplementary explanation data 32. The pattern determination unit 51 also outputs character string data indicating the target word to the homonym extraction unit 52 as target word data. In this way, supplementary explanation data 32 and target word data are generated from at least one input character string data 31.

同音異義語抽出部52は、パターン判定部51から補足説明データ32及び目的単語データを受け取る。この同音異義語抽出部52は、目的単語データが示す目的単語の複数の同音異義語を検出する。ここで、辞書部60に格納されるデータ、特に見出し61を示すデータが参照される。そして、同音異義語抽出部52は、検出された複数の同音異義語のそれぞれを示す複数の同音異義語データ33を生成し、その同音異義語データ33を記憶部30に出力する。また、同音異義語抽出部52は、補足説明データ32を記憶部30に出力する。   The homonym extraction unit 52 receives the supplementary explanation data 32 and the target word data from the pattern determination unit 51. The homonym extraction unit 52 detects a plurality of homonyms of the target word indicated by the target word data. Here, the data stored in the dictionary unit 60, particularly the data indicating the heading 61, is referred to. Then, the homonym extraction unit 52 generates a plurality of homonyms data 33 indicating each of the detected plurality of synonyms, and outputs the homonyms data 33 to the storage unit 30. The homonym extraction unit 52 outputs the supplementary explanation data 32 to the storage unit 30.

検索対象判定部53は、記憶部30から、補足説明データ32及び複数の同音異義語データ33を読み込む。その後、検索対象判定部53は、補足説明データ32の特性と、複数の同音異義語データ33の各々の特性との間に「共通点」があるかどうかを判定する。この特性の共通点は、後述されるように、補足説明と同音異義語とが共通して有する「漢字」や「読み」などを含む。そして、検索対象判定部53は、複数の同音異義語の中から、この「共通点」を有する1つの同音異義語を選び出し、その1つの同音異義語を示す検索語データ34を記憶部30に出力する。   The search target determination unit 53 reads the supplementary explanation data 32 and the plurality of homophones data 33 from the storage unit 30. Thereafter, the search target determination unit 53 determines whether or not there is a “common point” between the characteristic of the supplementary explanation data 32 and each characteristic of the plural homophones data 33. The common points of this characteristic include “kanji” and “reading” that the supplementary explanation and the homonym have in common as will be described later. Then, the search target determination unit 53 selects one homonym having the “common point” from the plurality of homonyms, and stores the search word data 34 indicating the one homonym in the storage unit 30. Output.

次に、本発明の第一の実施の形態に係る音声辞書検索システム10の動作を、フローチャート及び具体例を参照することにより詳細に説明する。図2A及び図2Bは、本実施の形態に係る音声辞書検索システム10の動作を示すフローチャートである。   Next, the operation of the speech dictionary search system 10 according to the first exemplary embodiment of the present invention will be described in detail with reference to flowcharts and specific examples. 2A and 2B are flowcharts showing the operation of the speech dictionary search system 10 according to the present exemplary embodiment.

(辞書検索例1)
図3は、本実施の形態における記憶部30の内容の一例を示す図である。つまり、図3において、入力文字列データ31、補足説明データ32、同音異義語データ33、及び検索語データ34の内容が示されている。この例において、音声入力部21に、「きょうかがっしゅくのきょうか」という音声20が入力される(ステップS11)。すると、音声認識部22は、この音声を示す音声データを解析・認識し、テキストデータである入力文字列データ31を生成する(ステップS12)。この場合、図3に示されるように、「強化合宿の強化」という入力文字列データ31が生成されたとする。
(Dictionary search example 1)
FIG. 3 is a diagram illustrating an example of the contents of the storage unit 30 in the present embodiment. That is, in FIG. 3, the contents of the input character string data 31, the supplementary explanation data 32, the homonym synonym data 33, and the search word data 34 are shown. In this example, the voice 20 “Kikagaku no Kyoka” is input to the voice input unit 21 (step S11). Then, the voice recognition unit 22 analyzes and recognizes voice data indicating this voice, and generates input character string data 31 that is text data (step S12). In this case, as shown in FIG. 3, it is assumed that the input character string data 31 “enhancement of training camp” is generated.

次に、パターン判定部51は、入力テキストパターン40を参照して、認識結果である入力文字列の構造を比較検討する(ステップS13)。つまり、パターン判定部51は、入力文字列が上述の「補足説明+目的単語」パターンに合致するかどうか判定する。この例において、入力文字列「強化合宿の強化」は、「名詞+の+名詞」パターンに合致する(ステップS14;Yes)。この場合、パターン判定部51は、この入力文字列を、先行する補足説明と後行する目的単語とに分割する(ステップS15)。つまり、入力文字列「強化合宿の強化」は、補足説明である「強化合宿」と、目的単語である「強化」とに分割される。その後、パターン判定部51は、文字列「強化合宿」及び文字列「強化」をそれぞれ示す補足説明データ32及び目的単語データを同音異義語抽出部52に出力する。   Next, the pattern determination unit 51 refers to the input text pattern 40 and compares and examines the structure of the input character string that is the recognition result (step S13). That is, the pattern determination unit 51 determines whether or not the input character string matches the “supplemental explanation + target word” pattern. In this example, the input character string “strengthening training camp” matches the “noun + noun” pattern (step S14; Yes). In this case, the pattern determination unit 51 divides this input character string into a preceding supplementary explanation and a target word to be followed (step S15). That is, the input character string “strengthening training camp” is divided into “strengthening training camp” that is supplementary explanation and “strengthening” that is the target word. Thereafter, the pattern determination unit 51 outputs the supplementary explanation data 32 and the target word data indicating the character string “strengthening training camp” and the character string “strengthening” to the homonym extraction unit 52, respectively.

次に、同音異義語抽出部52は、辞書部60に格納された辞書データを参照して、目的単語の複数の同音異義語を検出する(ステップS16)。例えば、同音異義語抽出部52は、目的単語「強化」に対して、「教科」「狂歌」「教化」などの複数の同音異義語を検出する。その後、同音異義語抽出部52は、これら複数の同音異義語のそれぞれを示す複数の同音異義語データ33を生成する。上述の補足説明データ32(「強化合宿」)と複数の同音異義語データ33(「教科」「強化」「狂歌」「教化」)は、記憶部30に出力され、図3に示されるように、記憶部30に格納される。   Next, the homonym extraction unit 52 refers to the dictionary data stored in the dictionary unit 60 to detect a plurality of homonyms of the target word (step S16). For example, the homonym extraction unit 52 detects a plurality of homonyms such as “subject”, “rage”, and “teaching” for the target word “enhancement”. Thereafter, the homonym extraction unit 52 generates a plurality of homonym data 33 indicating each of the plurality of homonyms. The above-mentioned supplementary explanation data 32 (“strengthening training camp”) and a plurality of homophones data 33 (“subject”, “strengthening”, “rage”, “teaching”) are output to the storage unit 30 as shown in FIG. Stored in the storage unit 30.

次に、検索対象判定部53は、複数の同音異義語(「教科」「強化」「狂歌」「教化」)の各々と補足説明「教化合宿」とを比較する(ステップS21)。まず、検索対象判定部53は、同音異義語と補足説明とが共通の「読み」を有するかどうか判定する(ステップS22)。この例において、補足説明「強化合宿」は、同音異義語の読みである「きょうか」と同一の読みを有する部分を有する(ステップS22;Yes)。この場合、検索対象判定部53は、補足説明「強化合宿」中で上記共通の読みを有する部分、すなわち単語「強化」を抽出する。このように、単語「強化」が検索対象として採用される(ステップS23)。つまり、検索対象判定部53は、複数の同音異義語(「教科」「強化」「狂歌」「教化」)から、所望の単語「強化」を選び出し、この単語「強化」を示す検索語データ34を記憶部30に出力する。表示部72は、検索結果を表示する(ステップS30)。このように、ユーザが意図した単語とその単語の意味が、ユーザに通知される。   Next, the search target determination unit 53 compares each of the plurality of homonyms (“subject”, “strengthening”, “rage”, “doctoralization”) with the supplementary explanation “teaching camp” (step S21). First, the search target determination unit 53 determines whether the homonym and the supplementary explanation have a common “reading” (step S22). In this example, the supplementary explanation “strengthening training camp” has a portion having the same reading as “Kyoka”, which is a reading of the homonym (step S22; Yes). In this case, the search target determining unit 53 extracts the portion having the common reading in the supplementary explanation “strengthening training camp”, that is, the word “strengthening”. Thus, the word “enhancement” is adopted as the search target (step S23). That is, the search target determination unit 53 selects a desired word “enhancement” from a plurality of homonyms (“subject”, “enhancement”, “rage”, “education”), and search word data 34 indicating the word “enhancement”. Is output to the storage unit 30. The display unit 72 displays the search result (step S30). In this way, the user is notified of the word intended by the user and the meaning of the word.

(辞書検索例2)
図4は、本実施の形態における記憶部30の内容の他の例を示す図である。この例において、音声入力部21に、「つよくするきょうか」という音声20が入力される(ステップS11)。すると、音声認識部22は、この音声を示す音声データを解析・認識し、テキストデータである入力文字列データ31を生成する(ステップS12)。この場合、図4に示されるように、「強くする教科」という入力文字列データ31が生成されたとする。ここで、ユーザが意図する検索したい単語は、明らかに「強化」である。
(Dictionary search example 2)
FIG. 4 is a diagram showing another example of the contents of the storage unit 30 in the present embodiment. In this example, the voice 20 “Kyoto Kyouka” is input to the voice input unit 21 (step S11). Then, the voice recognition unit 22 analyzes and recognizes voice data indicating this voice, and generates input character string data 31 that is text data (step S12). In this case, as shown in FIG. 4, it is assumed that input character string data 31 of “strengthening subject” is generated. Here, the word that the user intends to search is clearly “strengthening”.

次に、パターン判定部51は、入力テキストパターン40を参照して、認識結果である入力文字列の構造を比較検討する(ステップS13)。この例において、入力文字列「強くする教科」は、「動詞+名詞」パターンに合致する(ステップS14;Yes)。この場合、パターン判定部51は、この入力文字列を、先行する補足説明と後行する目的単語とに分割する(ステップS15)。つまり、入力文字列「強くする教科」は、補足説明である「強くする」と、目的単語である「教科」とに分割される。   Next, the pattern determination unit 51 refers to the input text pattern 40 and compares and examines the structure of the input character string that is the recognition result (step S13). In this example, the input character string “strengthening subject” matches the “verb + noun” pattern (step S14; Yes). In this case, the pattern determination unit 51 divides this input character string into a preceding supplementary explanation and a target word to be followed (step S15). In other words, the input character string “Strengthen subject” is divided into a supplementary explanation “Strengthen” and a target word “Subject”.

次に、同音異義語抽出部52は、辞書部60に格納された辞書データを参照して、目的単語の複数の同音異義語を検出する(ステップS16)。例えば、同音異義語抽出部52は、目的単語「教科」に対して、「強化」「狂歌」「教化」などの複数の同音異義語を検出する。その後、同音異義語抽出部52は、これら複数の同音異義語のそれぞれを示す複数の同音異義語データ33を生成する。補足説明データ32(「強くする」)と複数の同音異義語データ33(「教科」「強化」「狂歌」「教化」)は、記憶部30に出力され、図4に示されるように、記憶部30に格納される。   Next, the homonym extraction unit 52 refers to the dictionary data stored in the dictionary unit 60 to detect a plurality of homonyms of the target word (step S16). For example, the homonym extraction unit 52 detects a plurality of homonyms such as “enhancement”, “rage”, and “teaching” for the target word “subject”. Thereafter, the homonym extraction unit 52 generates a plurality of homonym data 33 indicating each of the plurality of homonyms. The supplementary explanation data 32 (“strengthen”) and a plurality of homonyms data 33 (“subject”, “enhancement”, “rage”, “teaching”) are output to the storage unit 30 and stored as shown in FIG. Stored in the unit 30.

次に、検索対象判定部53は、複数の同音異義語(「教科」「強化」「狂歌」「教化」)の各々と補足説明「強くする」とを比較する(ステップS21)。まず、検索対象判定部53は、同音異義語と補足説明とが共通の読みを有するかどうか判定する(ステップS22)。この例において、共通の読みは存在しない(ステップS22;No)。次に、検索対象判定部53は、同音異義語と補足説明とが共通の漢字を有するかどうか判定する(ステップ24)。複数の同音異義語中の「強化」と補足説明「強くする」は、共通の漢字「強」を有する(ステップS24;Yes)。この場合、その共通の漢字を有する単語「強化」が検索対象として採用される(ステップS25)。つまり、検索対象判定部53は、複数の同音異義語(「教科」「強化」「狂歌」「教化」)から、所望の単語「強化」を選び出し、この単語「強化」を示す検索語データ34を記憶部30に出力する。表示部72は、検索結果を表示する(ステップS30)。このように、ユーザが意図した単語とその単語の意味が、ユーザに通知される。   Next, the search target determination unit 53 compares each of a plurality of homonyms (“subject”, “enhancement”, “rage”, “doctorization”) with the supplementary explanation “strengthen” (step S21). First, the search target determination unit 53 determines whether the homonym and the supplementary explanation have a common reading (step S22). In this example, there is no common reading (step S22; No). Next, the search target determination unit 53 determines whether the homonym and the supplementary explanation have a common kanji (step 24). “Strengthening” and the supplementary explanation “strengthen” in the plural homonyms have a common Chinese character “strong” (step S24; Yes). In this case, the word “enhancement” having the common Chinese character is adopted as a search target (step S25). That is, the search target determination unit 53 selects a desired word “enhancement” from a plurality of homonyms (“subject”, “enhancement”, “rage”, “education”), and search word data 34 indicating the word “enhancement”. Is output to the storage unit 30. The display unit 72 displays the search result (step S30). In this way, the user is notified of the word intended by the user and the meaning of the word.

(辞書検索例3)
図5は、本実施の形態における記憶部30の内容の他の例を示す図である。この例において、音声入力部21に、「がっこうのきょうか」という音声20が入力される(ステップS11)。すると、音声認識部22は、この音声を示す音声データを解析・認識し、テキストデータである入力文字列データ31を生成する(ステップS12)。この場合、図5に示されるように、「学校の教科」という入力文字列データ31が生成されたとする。
(Dictionary search example 3)
FIG. 5 is a diagram illustrating another example of the contents of the storage unit 30 in the present embodiment. In this example, the voice 20 “Gakkou no Kyoka” is input to the voice input unit 21 (step S11). Then, the voice recognition unit 22 analyzes and recognizes voice data indicating this voice, and generates input character string data 31 that is text data (step S12). In this case, it is assumed that the input character string data 31 “school subject” is generated as shown in FIG.

次に、パターン判定部51は、入力テキストパターン40を参照して、認識結果である入力文字列の構造を比較検討する(ステップS13)。この例において、入力文字列「学校の教科」は、「名詞+の+名詞」パターンに合致する(ステップS14;Yes)。この場合、パターン判定部51は、この入力文字列を、先行する補足説明と後行する目的単語とに分割する(ステップS15)。つまり、入力文字列「学校の教科」は、補足説明である「学校」と、目的単語である「教科」とに分割される。   Next, the pattern determination unit 51 refers to the input text pattern 40 and compares and examines the structure of the input character string that is the recognition result (step S13). In this example, the input character string “school subject” matches the “noun + noun” pattern (step S14; Yes). In this case, the pattern determination unit 51 divides this input character string into a preceding supplementary explanation and a target word to be followed (step S15). That is, the input character string “school subject” is divided into “school” as a supplementary explanation and “subject” as a target word.

次に、同音異義語抽出部52は、辞書部60に格納された辞書データを参照して、目的単語の複数の同音異義語を検出する(ステップS16)。例えば、同音異義語抽出部52は、目的単語「教科」に対して、「強化」「狂歌」「教化」などの複数の同音異義語を検出する。その後、同音異義語抽出部52は、これら複数の同音異義語のそれぞれを示す複数の同音異義語データ33を生成する。補足説明データ32(「学校」)と複数の同音異義語データ33(「教科」「強化」「狂歌」「教化」)は、記憶部30に出力され、図5に示されるように、記憶部30に格納される。   Next, the homonym extraction unit 52 refers to the dictionary data stored in the dictionary unit 60 to detect a plurality of homonyms of the target word (step S16). For example, the homonym extraction unit 52 detects a plurality of homonyms such as “enhancement”, “rage”, and “teaching” for the target word “subject”. Thereafter, the homonym extraction unit 52 generates a plurality of homonym data 33 indicating each of the plurality of homonyms. The supplementary explanation data 32 (“school”) and a plurality of homonym data 33 (“subject”, “enhancement”, “rage”, “teaching”) are output to the storage unit 30 and, as shown in FIG. 30.

次に、検索対象判定部53は、複数の同音異義語(「教科」「強化」「狂歌」「教化」)の各々と補足説明「学校」とを比較する(ステップS21)。まず、検索対象判定部53は、同音異義語と補足説明とが共通の読みを有するかどうか判定する(ステップS22)。この例において、共通の読みは存在しない(ステップS22;No)。次に、検索対象判定部53は、同音異義語と補足説明とが共通の漢字を有するかどうか判定する(ステップ24)。この例において、共通の漢字は存在しない(ステップS24;No)。次に、検索対象判定部53は、複数の同音異義語(「教科」「強化」「狂歌」「教化」)の各々の説明文と補足説明「学校」とを比較する(ステップS26)。ここで、辞書部60に格納された辞書データ、つまり見出し61と説明文62が参照される。   Next, the search target determination unit 53 compares each of the plurality of homonyms (“subject”, “enhancement”, “rage”, “education”) with the supplementary explanation “school” (step S21). First, the search target determination unit 53 determines whether the homonym and the supplementary explanation have a common reading (step S22). In this example, there is no common reading (step S22; No). Next, the search target determination unit 53 determines whether the homonym and the supplementary explanation have a common kanji (step 24). In this example, there is no common kanji (step S24; No). Next, the search target determination unit 53 compares each explanatory sentence of the plural homonyms (“subject”, “enhancement”, “rage”, “education”) with the supplementary explanation “school” (step S26). Here, the dictionary data stored in the dictionary unit 60, that is, the heading 61 and the explanation 62 are referred to.

図6は、本発明に係る音声辞書検索システムにおける辞書部60の内容の一例を示す図である。図6において、例えば、見出し「強化」とその説明文62、及び見出し「教科」とその説明文62が示されている。   FIG. 6 is a diagram showing an example of the contents of the dictionary unit 60 in the speech dictionary search system according to the present invention. In FIG. 6, for example, a heading “enhancement” and its explanation 62 and a heading “subject” and its explanation 62 are shown.

このような辞書を参照して、検索対象判定部53は、各々の同音異義語の説明文62と補足説明とが共通部分を有するかどうか判定する(ステップS27)。図6に示されるように、見出し「教科」の説明文62には、「学校の教育過程」というフレーズが含まれている。つまり、単語「教科」の説明文62と補足説明「学校」とは、共通部分「学校」を有する(ステップS27;Yes)。この場合、その共通部分「学校」を有する単語「教科」が検索対象として採用される(ステップS28)。つまり、検索対象判定部53は、複数の同音異義語(「教科」「強化」「狂歌」「教化」)から、所望の単語「教科」を選び出し、この単語「教科」を示す検索語データ34を記憶部30に出力する。表示部72は、検索結果を表示する(ステップS30)。このように、ユーザが意図した単語とその単語の意味が、ユーザに通知される。   With reference to such a dictionary, the search target determination unit 53 determines whether or not the explanation sentence 62 of each homonym and the supplementary explanation have a common part (step S27). As shown in FIG. 6, the description 62 of the heading “Department” includes the phrase “school education process”. That is, the explanatory note 62 of the word “subject” and the supplementary explanation “school” have a common part “school” (step S27; Yes). In this case, the word “subject” having the common part “school” is adopted as a search target (step S28). That is, the search target determination unit 53 selects a desired word “subject” from a plurality of homonyms (“subject”, “enhancement”, “rage”, and “teaching”), and the search term data 34 indicating the word “subject”. Is output to the storage unit 30. The display unit 72 displays the search result (step S30). In this way, the user is notified of the word intended by the user and the meaning of the word.

各々の同音異義語の説明文62と補足説明との間に共通部分が存在しない場合(ステップS27;No)、一位候補が採用される(ステップS29)。つまり、最初に得られた目的単語が検索対象として採用される。検索対象判定部53は、その目的単語を示す検索語データ34を記憶部30に出力する。   If there is no common part between the explanation 62 of each homonym and the supplementary explanation (step S27; No), the first candidate is adopted (step S29). That is, the first obtained target word is adopted as a search target. The search target determination unit 53 outputs the search word data 34 indicating the target word to the storage unit 30.

以上の検索例において、複数種の同音異義語が、補足説明との間に共通部分(漢字や読み)を有する複数の候補を含む場合、検索対象判定部53は、その共通部分を最も多く含む候補を、辞書検索の対象として選択してもよい。あるいは、検索対象判定部53は、その複数の候補を示す検索語データ34を記憶部30に出力してもよい。この場合、表示部72には、複数種の同音異義語が表示される。ユーザは、この結果に基づき、新たな音声20を音声入力部21に入力することができる。また、上記ステップS14において、入力文字列が「補足説明+目的単語」パターンに合致しない場合(ステップS14;No)、表示部72には認識結果(入力文字列)がそのまま表示される(ステップS17)。   In the above search examples, when a plurality of types of homonyms include a plurality of candidates having a common part (kanji or reading) with the supplementary explanation, the search target determination unit 53 includes the most common part. Candidates may be selected as dictionary search targets. Alternatively, the search target determination unit 53 may output the search term data 34 indicating the plurality of candidates to the storage unit 30. In this case, a plurality of types of homonyms are displayed on the display unit 72. Based on this result, the user can input a new voice 20 to the voice input unit 21. If the input character string does not match the “supplementary explanation + target word” pattern in step S14 (step S14; No), the recognition result (input character string) is displayed as it is on the display unit 72 (step S17). ).

また、以上に示された音声辞書検索システム10における辞書検索処理は、コンピュータによって実行されてもよい。この時、上述の音声認識部22、パターン判定部51、同音異義語抽出部52、検索対象判定部53、及び辞書検索部55における処理は、それぞれコンピュータプログラムにより記述され、演算処理装置(図示されない)によって実行される。   The dictionary search process in the speech dictionary search system 10 shown above may be executed by a computer. At this time, the processes in the speech recognition unit 22, the pattern determination unit 51, the homonym extraction unit 52, the search target determination unit 53, and the dictionary search unit 55 are each described by a computer program, and an arithmetic processing unit (not shown) ) Is executed.

更に、音声辞書検索システム10において、上述の出力部70は、音声出力部を備えてもよい。この音声出力部は、文字列から合成音声を生成し、その合成音声を出力する。この時、検索結果である単語の見出し61及びその説明文62は、合成音声によってユーザに通知される。また、出力部70は、検索結果を他のシステムに出力してもよい。例えば、出力部70は、検索結果を音声予約システムに出力してもよい。この場合、ユーザは、例えば自分の氏名の漢字を1文字ずつ自由に説明しながら入力する。出力部70は、検索語データ34が示す漢字(見出し61)を、順番に音声予約システムに出力する。   Further, in the speech dictionary search system 10, the output unit 70 described above may include a speech output unit. The voice output unit generates a synthesized voice from the character string and outputs the synthesized voice. At this time, the word heading 61 and the explanation 62 thereof as a search result are notified to the user by synthetic speech. The output unit 70 may output the search result to another system. For example, the output unit 70 may output the search result to the voice reservation system. In this case, the user inputs, for example, the kanji of his / her name freely explaining each character. The output unit 70 sequentially outputs the kanji (heading 61) indicated by the search word data 34 to the voice reservation system.

以上に説明された通り、本実施の形態に係る音声辞書検索システム10によれば、音声20(入力文字列データ31)に込められたユーザの意図が認識される。具体的には、入力文字列データ31から、「目的単語」と、その「目的単語」を補足的に説明する「補足説明」とが抽出される。この「補足説明」を参照することにより、ユーザの意図が考慮された適切な単語が辞書で検索される。ここで、この「補足説明」で用いるべき単語や言い回しに特に制限はない。ユーザは、自分が説明しやすいように任意の単語・語句を用いて「目的単語」を形容すればよい。音声辞書検索システム10は、この「補足説明」に含まれる「漢字」や「読み」を参照することにより、入力された単語が複数の同音異義語を有する場合においても、ユーザの意図する単語を検索することができる。このように、本発明に係る音声辞書検索システム10によれば、同音異義語による誤検索が低減され、入力される音声に対して効率よく辞書検索を行うことが可能となる。   As described above, according to the speech dictionary search system 10 according to the present embodiment, the user's intention embedded in the speech 20 (input character string data 31) is recognized. Specifically, a “target word” and a “supplemental explanation” that supplementarily explains the “target word” are extracted from the input character string data 31. By referring to this “supplementary explanation”, an appropriate word considering the user's intention is searched in the dictionary. Here, there are no particular restrictions on the words and phrases to be used in this “supplementary explanation”. The user may describe the “target word” using an arbitrary word / phrase so that the user can easily explain. The speech dictionary search system 10 refers to the “kanji” and “reading” included in the “supplementary explanation”, so that the word intended by the user can be obtained even when the input word has a plurality of homonyms. You can search. As described above, according to the speech dictionary search system 10 according to the present invention, erroneous searches due to homonyms are reduced, and it is possible to efficiently perform a dictionary search on input speech.

(第二の実施の形態)
音声を入力して辞書検索を行う際、ユーザは、例えば「しょうかい」と発声した後に、補足的な説明として「残高照会」と発声することも可能である。つまり、ユーザは、検索したい単語を発声した後に、その説明を追加して発声することが可能である。本発明の第二の実施の形態は、このような音声入力に対応する。本実施の形態に係る音声辞書検索システム10によれば、パターン判定部51の動作が第一の実施の形態における動作と異なる。その他の構成・動作は、第一の実施の形態における構成・動作と同様であり(図1参照)、その説明は適宜省略される。
(Second embodiment)
When performing a dictionary search by inputting voice, the user can also say “Balance inquiry” as a supplementary explanation after saying “Shokai”, for example. In other words, after the user utters the word to be searched, the user can add the explanation and utter. The second embodiment of the present invention corresponds to such voice input. According to the speech dictionary search system 10 according to the present embodiment, the operation of the pattern determination unit 51 is different from the operation in the first embodiment. Other configurations and operations are the same as those in the first embodiment (see FIG. 1), and the description thereof is omitted as appropriate.

図7は、本実施の形態に係る音声辞書検索システム10の動作を示すフローチャートである。図8A及び図8Bは、本実施の形態における記憶部30の内容の一例を示す図である。つまり、図8A及び図8Bにおいて、入力文字列データ31、補足説明データ32、同音異義語データ33、及び検索語データ34の内容が示されている。この例において、音声入力部21に、「しょうかい」という音声20が入力される(ステップS31)。すると、音声認識部22は、この音声を示す音声データを解析・認識し、テキストデータである入力文字列データ31を生成する(ステップS32)。この場合、図8Aに示されるように、「紹介」という入力文字列データ31が生成されたとする。   FIG. 7 is a flowchart showing the operation of the speech dictionary search system 10 according to the present exemplary embodiment. 8A and 8B are diagrams illustrating an example of the contents of the storage unit 30 in the present embodiment. That is, in FIG. 8A and FIG. 8B, the contents of the input character string data 31, the supplementary explanation data 32, the homonym synonym data 33, and the search word data 34 are shown. In this example, the voice 20 “Shokai” is input to the voice input unit 21 (step S31). Then, the voice recognition unit 22 analyzes and recognizes voice data indicating this voice, and generates input character string data 31 that is text data (step S32). In this case, it is assumed that the input character string data 31 “introduction” is generated as shown in FIG. 8A.

次に、パターン判定部51は、目的単語が既に生成され、同音異義語データ33が記憶部30に登録されているかどうかを確認する(ステップS33)。同音異義語データ33がまだ記憶部30に登録されていない場合(ステップS33;No)、パターン判定部51は、この入力文字列を「目的単語」として設定する(ステップS37)。つまり、文字列「紹介」が、目的単語として登録される。そして、パターン判定部51は、この目的単語を示す目的単語データを同音異義語抽出部52に出力する。   Next, the pattern determination unit 51 checks whether the target word has already been generated and whether the homonym data 33 is registered in the storage unit 30 (step S33). When the homonym data 33 is not yet registered in the storage unit 30 (step S33; No), the pattern determination unit 51 sets this input character string as a “target word” (step S37). That is, the character string “introduction” is registered as the target word. Then, the pattern determination unit 51 outputs target word data indicating the target word to the homonym extraction unit 52.

同音異義語抽出部52は、第一の実施の形態の場合と同様に、この目的単語の複数の同音異義語を検出する(ステップS38)。例えば、同音異義語抽出部52は、目的単語「紹介」に対して、「照会」「商会」「小会」などの複数の同音異義語を検出する。その後、同音異義語抽出部52は、これら複数の同音異義語のそれぞれを示す複数の同音異義語データ33を生成する。この複数の同音異義語データ33(「紹介」「照会」「商会」「小会」)は、記憶部30に出力され、図8Aに示されるように、記憶部30に格納される。   Similar to the first embodiment, the homonym extraction unit 52 detects a plurality of homonyms of the target word (step S38). For example, the homonym extraction unit 52 detects a plurality of homonyms, such as “inquiry”, “commercial company”, and “small party”, for the target word “introduction”. Thereafter, the homonym extraction unit 52 generates a plurality of homonym data 33 indicating each of the plurality of homonyms. The plurality of homonym data 33 (“introduction”, “inquiry”, “commercial company”, “sub-committee”) are output to the storage unit 30 and stored in the storage unit 30 as shown in FIG. 8A.

補足説明データ32はまだ生成されていないので、検索対象判定部53は、同音異義語データ33をそのまま検索語データ34として記憶部30に出力する。あるいは、検索対象判定部53は、一位候補である「紹介」を示すデータを検索語データ34として記憶部30に出力する。辞書検索部55は、この検索語データ34に基づいて辞書検索を行い、表示部72は、その辞書検索の結果を表示する(ステップS39)。つまり、表示部72には、複数の同音異義語(「紹介」「照会」「商会」「小会」)、あるいは単語「紹介」が表示される。   Since the supplementary explanation data 32 has not yet been generated, the search target determination unit 53 outputs the homonym word data 33 as it is to the storage unit 30 as the search word data 34. Alternatively, the search target determination unit 53 outputs data indicating “first introduction”, which is the first candidate, to the storage unit 30 as the search term data 34. The dictionary search unit 55 performs a dictionary search based on the search word data 34, and the display unit 72 displays the result of the dictionary search (step S39). That is, the display unit 72 displays a plurality of homonyms (“introduction”, “inquiry”, “commercial company”, and “subcommittee”) or the word “introduction”.

ユーザは、この表示結果に基づいて、補足的な説明を追加することができる。例えば、「照会」という単語を検索したかった時、ユーザは、2回目の発声として「ざんだかしょうかい」と発声すればよい(ステップS31)。この時、図8Bに示されるように、「残高照会」という入力文字列データ31が生成されたとする(ステップS32)。その後、前回と同様に、パターン判定部51は、目的単語が既に生成され、同音異義語データ33が記憶部30に登録されているかどうかを確認する(ステップS33)。   The user can add a supplementary explanation based on the display result. For example, when the user wants to search for the word “inquiry”, the user may utter “Zanda Kasho” as the second utterance (step S31). At this time, as shown in FIG. 8B, it is assumed that the input character string data 31 "balance inquiry" is generated (step S32). After that, as in the previous time, the pattern determination unit 51 confirms whether the target word has already been generated and whether the homonym word data 33 is registered in the storage unit 30 (step S33).

今回、同音異義語データ33が既に記憶部30に登録されている(ステップS33;Yes)。この場合、パターン判定部51は、入力テキストパターン40を参照して、認識結果である入力文字列の構造を比較検討する(ステップS34)。つまり、パターン判定部51は、入力文字列が上述の「補足説明」のパターンに合致するかどうか判定する。   This time, the homonym data 33 has already been registered in the storage unit 30 (step S33; Yes). In this case, the pattern determination unit 51 refers to the input text pattern 40 and compares and examines the structure of the input character string that is the recognition result (step S34). That is, the pattern determination unit 51 determines whether or not the input character string matches the above-described “supplemental explanation” pattern.

補足説明のパターンに合致しない場合(ステップS35;No)、パターン判定部51は、この入力文字列を「目的単語」として設定する(ステップS37)。補足説明のパターンに合致する場合(ステップS35;Yes)、パターン判定部51は、この入力文字列を「補足説明」として設定する(ステップS36)。つまり、文字列「残高照会」が、その補足説明として登録される。そして、この補足説明を示す補足説明データ32が、記憶部30に出力される。この時、図8Bに示されるように、記憶部30には、補足説明データ32(「残高照会」)と複数の同音異義語データ33(「紹介」「照会」「商会」「小会」)が格納されている。   When the pattern does not match the supplementary description pattern (step S35; No), the pattern determination unit 51 sets the input character string as a “target word” (step S37). If the pattern matches the supplementary explanation pattern (step S35; Yes), the pattern determination unit 51 sets this input character string as “supplementary explanation” (step S36). That is, the character string “Balance inquiry” is registered as the supplementary explanation. Then, supplementary explanation data 32 indicating this supplementary explanation is output to the storage unit 30. At this time, as shown in FIG. 8B, the storage unit 30 stores supplementary explanation data 32 (“balance inquiry”) and a plurality of synonym data 33 (“introduction”, “inquiry”, “company”, “subcommittee”). Is stored.

その後、検索対象判定部53は、第一の実施の形態における方法と同様の方法(ステップS21〜S29;図2B参照)により、複数の同音異義語(「紹介」「照会」「商会」「小会」)から、所望の単語「照会」を選び出す。つまり、共通の漢字や読みを探すことによって、ユーザの意図が認識される。そして、図8Bに示されるように、検索対象判定部53は、この単語「照会」を示す検索語データ34を記憶部30に出力する。最後に、表示部72は、検索結果を表示する(ステップS30)。このように、ユーザが意図した単語とその単語の意味が、ユーザに通知される。   Thereafter, the search target determination unit 53 uses a method similar to the method in the first embodiment (steps S21 to S29; see FIG. 2B) to generate a plurality of homonyms (“introduction”, “inquiry”, “company”, “small”). The desired word “inquiry” is selected from “Meeting”). That is, the user's intention is recognized by searching for common kanji and readings. Then, as illustrated in FIG. 8B, the search target determination unit 53 outputs the search term data 34 indicating the word “inquiry” to the storage unit 30. Finally, the display unit 72 displays the search result (step S30). In this way, the user is notified of the word intended by the user and the meaning of the word.

以上に示された音声辞書検索システム10における辞書検索処理は、コンピュータによって実行されてもよい。この時、上述の音声認識部22、パターン判定部51、同音異義語抽出部52、検索対象判定部53、及び辞書検索部55における処理は、それぞれコンピュータプログラムにより記述され、演算処理装置(図示されない)によって実行される。   The dictionary search process in the speech dictionary search system 10 shown above may be executed by a computer. At this time, the processes in the speech recognition unit 22, the pattern determination unit 51, the homonym extraction unit 52, the search target determination unit 53, and the dictionary search unit 55 are each described by a computer program, and an arithmetic processing unit (not shown) ) Is executed.

以上に説明されたように、本発明の第二の実施の形態に係る音声辞書検索システム10によれば、パターン判定部51は、2つの入力文字列データ31のうち、先に入力された方を目的単語データ(同音異義語データ33)として設定し、後に入力された方を補足説明データ32として設定する。これにより、ユーザが例えば「しょうかい」と発声した後に、補足的な説明として「ざんだかしょうかい」と発声した場合にも、複数の同音異義語から所望の単語「照会」が検索対象として選択される。このように、本実施の形態によれば、第一の実施の形態による効果と同様の効果が得られる。   As described above, according to the speech dictionary search system 10 according to the second exemplary embodiment of the present invention, the pattern determination unit 51 is the one of the two input character string data 31 that has been input first. Is set as the target word data (synonym synonym data 33), and the later input data is set as the supplementary explanation data 32. As a result, for example, even when the user utters “Shokai” and then utters “Zanda Kashokai” as a supplementary explanation, the desired word “inquiry” is selected as a search target from a plurality of homonyms. . Thus, according to the present embodiment, the same effect as that of the first embodiment can be obtained.

尚、第一の実施の形態と第二の実施の形態を組み合わせて用いることも可能である。この時、図2Aに示されたステップS14において、入力文字列が「補足説明+目的単語」パターンに合致しないと判定された場合(ステップS14;No)、パターン判定部51は、図7に示されたステップS33を実行する。つまり、パターン判定部51は、目的単語が既に生成され、同音異義語データ33が記憶部30に登録されているかどうかを確認する(ステップS33)。ステップS14、ステップS33以降の動作は、それぞれ第一及び第二の実施の形態における動作と同様である。記憶部30に、補足説明データ32及び同音異義語データ33が登録されると、図2Bに示された動作が実行される。   It should be noted that the first embodiment and the second embodiment can be used in combination. At this time, when it is determined in step S14 shown in FIG. 2A that the input character string does not match the “supplemental explanation + target word” pattern (step S14; No), the pattern determination unit 51 is shown in FIG. Step S33 is executed. That is, the pattern determination unit 51 checks whether the target word has already been generated and whether the homonym data 33 has been registered in the storage unit 30 (step S33). The operations after Step S14 and Step S33 are the same as the operations in the first and second embodiments, respectively. When the supplementary explanation data 32 and the homonym data 33 are registered in the storage unit 30, the operation shown in FIG. 2B is executed.

(第三の実施の形態)
図9は、本発明の第三の実施の形態に係る音声辞書検索システムの構成を示すブロック図である。図9において、図1に示された構成と同様の構成には同一の符号が付され、その説明は適宜省略される。本実施の形態において、音声辞書検索システム10´は、音声入力部21、音声認識部22、記憶部30、対象決定部50、辞書検索部55、辞書部60、出力部70に加えて、入力部81及び制御部82を備える。
(Third embodiment)
FIG. 9 is a block diagram showing the configuration of the speech dictionary search system according to the third embodiment of the present invention. 9, the same components as those shown in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. In the present embodiment, the speech dictionary search system 10 ′ includes an input in addition to the speech input unit 21, speech recognition unit 22, storage unit 30, object determination unit 50, dictionary search unit 55, dictionary unit 60, and output unit 70. Unit 81 and control unit 82.

入力部81は、複数のボタンを備える。この複数のボタンは、「補足説明」が入力される際に押下される補足ボタン、「目的単語」が入力される際に押下される入力ボタンを含む。これら複数のボタン(81)は、制御部82を介して、音声認識部22及びパターン判定部51に接続される。   The input unit 81 includes a plurality of buttons. The plurality of buttons include a supplement button that is pressed when “supplementary explanation” is input, and an input button that is pressed when “target word” is input. The plurality of buttons (81) are connected to the voice recognition unit 22 and the pattern determination unit 51 via the control unit 82.

制御部82は、入力ボタンあるいは補足ボタンが押下されている時にだけ音声認識部22が音声認識処理を実行するように制御する。また、制御部82は、入力ボタンや補足ボタンの押下状況に応じてパターン判定部51の動作を制御する。すなわち、パターン判定部51は、補足ボタンが押下された時に入力される入力文字列データ31を補足説明データ32として設定する。また、パターン判定部51は、入力ボタンが押下された時に入力される入力文字列データ31を目的単語データ(同音異義語データ33)として設定する。それ以降の動作は、記述の実施の形態における動作と同様である(図2B参照)。つまり、共通の漢字や読みを探すことによって、ユーザの意図が認識される。このように、本実施の形態に係る音声辞書検索システム10´によれば、ユーザの利便性が向上する。   The control unit 82 controls the voice recognition unit 22 to execute the voice recognition process only when the input button or the supplement button is pressed. The control unit 82 controls the operation of the pattern determination unit 51 in accordance with the pressing state of the input button or the supplement button. That is, the pattern determination unit 51 sets the input character string data 31 input when the supplement button is pressed as the supplementary explanation data 32. Further, the pattern determination unit 51 sets the input character string data 31 input when the input button is pressed as the target word data (synonym synonym data 33). The subsequent operation is the same as the operation in the described embodiment (see FIG. 2B). That is, the user's intention is recognized by searching for common kanji and readings. Thus, according to the speech dictionary search system 10 ′ according to the present embodiment, the convenience for the user is improved.

(第四の実施の形態)
図10は、本発明の第四の実施の形態に係る音声辞書検索システムの構成を示すブロック図である。図10において、図1に示された構成と同様の構成には同一の符号が付され、その説明は適宜省略される。本実施の形態において、音声辞書検索システム10は、上述の第一及び第二の実施の形態と同様の方法で辞書検索を行う。
(Fourth embodiment)
FIG. 10 is a block diagram showing the configuration of the speech dictionary search system according to the fourth embodiment of the present invention. 10, the same components as those shown in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. In the present embodiment, the speech dictionary search system 10 performs a dictionary search by the same method as in the first and second embodiments described above.

本実施の形態に係る音声辞書検索システム10は、対象決定部50及び出力部70に接続されたユーザ補助部90を更に備える。対象決定部50は、「検索対象」が特定できなかった場合に、このユーザ補助部90に補助指令信号を送信する。ユーザ補助部90は、その補助指令信号に従い、ユーザに対して発声の案内や誘導を行ったり、次の発声を促したりする。それら発声の案内・誘導・促進は、出力部70(表示部72)を通して、ユーザに通知される。   The speech dictionary search system 10 according to the present embodiment further includes a user auxiliary unit 90 connected to the target determining unit 50 and the output unit 70. The target determining unit 50 transmits an auxiliary command signal to the user auxiliary unit 90 when the “search target” cannot be specified. In accordance with the auxiliary command signal, the user auxiliary unit 90 guides or guides the utterance to the user or prompts the next utterance. The guidance / guidance / promotion of these utterances is notified to the user through the output unit 70 (display unit 72).

例えば、第一の実施の形態に係るステップS14において(図2A参照)、認識結果である入力文字列が「補足説明+目的単語」パターンに合致しない場合(ステップS14;No)、表示部72にはその認識結果が表示される(ステップS17)と共に、発声の案内・誘導・促進を示すフレーズが表示される。具体的には、「もう1度発声して下さい」といったフレーズや、「他の言い回しで発声して下さい」といったフレーズや、「補足説明+目的語」パターンの1例として「例:強くする強化」といったフレーズが、表示部72に表示される。   For example, in step S14 according to the first embodiment (see FIG. 2A), when the input character string that is the recognition result does not match the “supplementary explanation + target word” pattern (step S14; No), the display unit 72 The recognition result is displayed (step S17), and a phrase indicating guidance / guidance / promotion of utterance is displayed. Specifically, phrases such as “Please speak again”, phrases such as “Please speak in other words”, and “Supplementary explanation + object” patterns are examples: Is displayed on the display unit 72.

また、例えば、第二の実施の形態に係るステップS39において(図7参照)、表示部72に複数の同音異義語が表示されると共に、発声の案内・誘導・促進を示すフレーズが表示される。具体的には、「同音異義語が検出されました」といったフレーズや、「補足説明を入力して下さい」といったフレーズが、表示部72に表示される。   In addition, for example, in step S39 according to the second embodiment (see FIG. 7), a plurality of homonyms are displayed on the display unit 72, and phrases indicating guidance / guidance / promotion of utterance are displayed. . Specifically, a phrase such as “a homonym has been detected” or a phrase “please input supplemental explanation” is displayed on the display unit 72.

また、例えば、第一及び第二の実施の形態において、検索対象判定部53が「検索対象」を特定できなかった時(ステップS29;図2B参照)、一位候補の単語が表示されると共に、発声の案内・誘導・促進を示すフレーズが表示される。具体的には、「同音異義語が検出されました」といったフレーズや、「他の言い回しで発声して下さい」といったフレーズや、「再度、補足説明を入力して下さい」といったフレーズが表示部72に表示される。   Further, for example, in the first and second embodiments, when the search target determination unit 53 cannot identify “search target” (step S29; see FIG. 2B), the first candidate word is displayed. A phrase indicating guidance / guidance / promotion of utterance is displayed. Specifically, a phrase such as “a homonym has been detected”, a phrase such as “Please speak with another phrase”, or a phrase such as “Please input supplemental explanation again” is displayed on the display unit 72. Is displayed.

ユーザは、表示部72に表示される通知を見て、再度発声をしたり、補足説明を入力することができる。このように、本実施の形態に係る音声辞書検索システム10によれば、ユーザの利便性が向上する。   The user can utter again or input a supplementary explanation by looking at the notification displayed on the display unit 72. Thus, according to the speech dictionary search system 10 according to the present embodiment, user convenience is improved.

図1は、本発明に係る音声辞書検索システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a speech dictionary search system according to the present invention. 図2Aは、本発明の第一の実施の形態に係る音声辞書検索システムの動作を示すフローチャートである。FIG. 2A is a flowchart showing the operation of the speech dictionary search system according to the first embodiment of the present invention. 図2Bは、本発明の第一の実施の形態に係る音声辞書検索システムの動作を示すフローチャートである。FIG. 2B is a flowchart showing the operation of the speech dictionary search system according to the first embodiment of the present invention. 図3は、本発明の第一の実施の形態に係る音声辞書検索システムにおける記憶部の内容の一例を示す図である。FIG. 3 is a diagram showing an example of the contents of the storage unit in the speech dictionary search system according to the first embodiment of the present invention. 図4は、本発明の第一の実施の形態に係る音声辞書検索システムにおける記憶部の内容の他の例を示す図である。FIG. 4 is a diagram showing another example of the contents of the storage unit in the speech dictionary search system according to the first embodiment of the present invention. 図5は、本発明の第一の実施の形態に係る音声辞書検索システムにおける記憶部の内容の更に他の例を示す図である。FIG. 5 is a diagram showing still another example of the contents of the storage unit in the speech dictionary search system according to the first embodiment of the present invention. 図6は、本発明に係る音声辞書検索システムにおける辞書部の内容の一例を示す図である。FIG. 6 is a diagram showing an example of the contents of the dictionary unit in the speech dictionary search system according to the present invention. 図7は、本発明の第二の実施の形態に係る音声辞書検索システムの動作を示すフローチャートである。FIG. 7 is a flowchart showing the operation of the speech dictionary search system according to the second embodiment of the present invention. 図8Aは、本発明の第二の実施の形態に係る音声辞書検索システムにおける記憶部の内容の一例を示す図である。FIG. 8A is a diagram showing an example of the contents of the storage unit in the speech dictionary search system according to the second embodiment of the present invention. 図8Bは、本発明の第二の実施の形態に係る音声辞書検索システムにおける記憶部の内容の一例を示す図である。FIG. 8B is a diagram showing an example of the contents of the storage unit in the speech dictionary search system according to the second embodiment of the present invention. 図9は、本発明の第三の実施の形態に係る音声辞書検索システムの構成を示すブロック図である。FIG. 9 is a block diagram showing the configuration of the speech dictionary search system according to the third embodiment of the present invention. 図10は、本発明の第四の実施の形態に係る音声辞書検索システムの構成を示すブロック図である。FIG. 10 is a block diagram showing the configuration of the speech dictionary search system according to the fourth embodiment of the present invention.

符号の説明Explanation of symbols

10 音声辞書検索システム
20 音声
21 音声入力部
22 音声認識部
30 記憶部
31 入力文字列データ
32 補足説明データ
33 同音異義語データ
34 検索語データ
40 入力テキストパターン
50 対象決定部
51 パターン判定部
52 同音異義語抽出部
53 検索対象判定部
55 辞書検索部
60 辞書部
61 見出し
62 説明文
70 出力部
72 表示部
81 入力部
82 制御部
90 ユーザ補助部
DESCRIPTION OF SYMBOLS 10 Voice dictionary search system 20 Voice 21 Voice input part 22 Voice recognition part 30 Storage part 31 Input character string data 32 Supplementary explanation data 33 Homophones synonym data 34 Search word data 40 Input text pattern 50 Target determination part 51 Pattern determination part 52 Anomaly extraction unit 53 Search target determination unit 55 Dictionary search unit 60 Dictionary unit 61 Heading 62 Description 70 Output unit 72 Display unit 81 Input unit 82 Control unit 90 User assistance unit

Claims (16)

音声が入力される音声入力部と、
辞書データを格納する辞書部と、
入力された前記音声に対応する入力文字列データを生成する音声認識部と、
前記入力文字列データを受け取り、前記辞書データを参照して検索対象を決定する対象決定部と、
決定された前記検索対象に対して前記辞書データを参照することにより辞書検索を行う辞書検索部と、
前記辞書検索の結果を出力する出力部と
を具備し、
前記対象決定部は、
第1判定部と、
同音異義語抽出部と、
第2判定部と
を備え、
前記第1判定部は、少なくとも1つの前記入力文字列データから第1文字列データと第2文字列データとを生成し、
前記同音異義語抽出部は、前記辞書データを参照して前記第2文字列データが示す単語の複数の同音異義語を検出し、前記複数の同音異義語のそれぞれを示す複数の同音異義語データを生成し、
前記第2判定部は、前記複数の同音異義語データの各々の特性と前記第1文字列データの特性との間に共通点があるかどうかを判定し、前記複数の同音異義語データのうち前記共通点を有する一の前記同音異義語データを、前記検索対象を示す検索語データとして前記辞書検索部に出力する
音声辞書検索システム。
An audio input unit for inputting audio;
A dictionary section for storing dictionary data;
A voice recognition unit that generates input character string data corresponding to the input voice;
A target determination unit that receives the input character string data and determines a search target with reference to the dictionary data;
A dictionary search unit that performs a dictionary search by referring to the dictionary data for the determined search target;
An output unit for outputting the result of the dictionary search,
The target determining unit
A first determination unit;
A homonym extraction unit;
A second determination unit, and
The first determination unit generates first character string data and second character string data from at least one of the input character string data,
The homonym synonym extraction unit detects a plurality of homonyms of the word indicated by the second character string data with reference to the dictionary data, and a plurality of homonym data indicating each of the plurality of homonyms Produces
The second determination unit determines whether there is a common point between the characteristic of each of the plurality of homophones data and the characteristic of the first character string data, and among the plurality of homophones data The speech dictionary search system that outputs the homonym data having one common point to the dictionary search unit as search word data indicating the search target.
請求項1に記載の音声辞書検索システムにおいて、
前記第1判定部は、1つの前記入力文字列データが示す文字列を、先行する第1文字列と後行する第2文字列とに分割し、
前記第1判定部は、前記第1文字列を示すデータを前記第1文字列データとして設定し、前記第2文字列を示すデータを前記第2文字列データとして設定する
音声辞書検索システム。
The speech dictionary search system according to claim 1,
The first determination unit divides a character string indicated by one input character string data into a first character string preceding and a second character string following.
The spoken dictionary search system, wherein the first determination unit sets data indicating the first character string as the first character string data, and sets data indicating the second character string as the second character string data.
請求項2に記載の音声辞書検索システムにおいて、
前記第1文字列は、名詞、名詞句、形容詞、形容詞句、動詞、及び動詞句のうち少なくとも1つを含み、
前記第2文字列は、名詞あるいは名詞句を含む
音声辞書検索システム。
The speech dictionary search system according to claim 2,
The first character string includes at least one of a noun, a noun phrase, an adjective, an adjective phrase, a verb, and a verb phrase,
The second character string includes a noun or a noun phrase.
請求項1に記載の音声辞書検索システムにおいて、
前記第1判定部は、2つの前記入力文字列データのうち、先に入力された前記入力文字列データを前記第2文字列データとして設定し、後に入力された前記入力文字列データを前記第1文字列データとして設定する
音声辞書検索システム。
The speech dictionary search system according to claim 1,
The first determination unit sets the input character string data input first among the two input character string data as the second character string data, and sets the input character string data input later as the second character string data. Spoken dictionary search system set as one character string data.
請求項4に記載の音声辞書検索システムにおいて、
前記第1文字列データが示す文字列は、名詞、名詞句、形容詞、形容詞句、動詞及び動詞句のうち少なくとも1つを含み、
前記第2文字列データが示す文字列は、名詞あるいは名詞句を含む
音声辞書検索システム。
The speech dictionary search system according to claim 4,
The character string indicated by the first character string data includes at least one of a noun, a noun phrase, an adjective, an adjective phrase, a verb, and a verb phrase.
The character string indicated by the second character string data includes a noun or a noun phrase.
請求項1に記載の音声辞書検索システムにおいて、
前記第1判定部に接続された第1ボタン及び第2ボタンを更に具備し、
前記第1判定部は、前記第1ボタンが押下された時に入力される前記入力文字列データを前記第1文字列データとして設定し、前記第2ボタンが押下された時に入力される前記入力文字列データを前記第2文字列データとして設定する
音声辞書検索システム。
The speech dictionary search system according to claim 1,
A first button and a second button connected to the first determination unit;
The first determination unit sets the input character string data input when the first button is pressed as the first character string data, and the input character input when the second button is pressed. A speech dictionary search system for setting column data as the second character string data.
請求項1乃至6のいずれかに記載の音声辞書検索システムにおいて、
前記第2判定部は、前記複数の同音異義語データが示す単語の読みと、前記第1文字列データが示す文字列の読みとの間に、共通の読みがあるかどうかを判定し、
前記第2判定部は、前記第1文字列データが示す前記文字列中から、前記共通の読みを有する共通部分を抽出し、前記共通部分と同一の単語を示す前記同音異義語データを、前記検索語データとして出力する
音声辞書検索システム。
The speech dictionary search system according to any one of claims 1 to 6,
The second determination unit determines whether or not there is a common reading between the reading of the word indicated by the plurality of homonym data and the reading of the character string indicated by the first character string data,
The second determination unit extracts a common part having the common reading from the character string indicated by the first character string data, and the homonym data indicating the same word as the common part is Voice dictionary search system that outputs as search term data.
請求項1乃至6のいずれかに記載の音声辞書検索システムにおいて、
前記第2判定部は、前記各々の同音異義語データが示す文字列と、前記第1文字列データが示す文字列との間に、共通の漢字があるかどうかを判定し、
前記第2判定部は、前記共通の漢字を含む前記同音異義語データを、前記検索語データとして出力する
音声辞書検索システム。
The speech dictionary search system according to any one of claims 1 to 6,
The second determination unit determines whether there is a common kanji character between the character string indicated by each of the homonym data and the character string indicated by the first character string data;
The second determination unit outputs the homonym word data including the common kanji as the search word data.
請求項1乃至6のいずれかに記載の音声辞書検索システムにおいて、
前記第2判定部は、前記辞書データを参照し、前記各々の同音異義語データが示す単語の説明文と、前記第1文字列データが示す文字列との間に、共通の漢字があるかどうかを判定し、
前記第2判定部は、前記共通の漢字を含む前記説明文に対応する前記同音異義語データを、前記検索語データとして出力する
音声辞書検索システム。
The speech dictionary search system according to any one of claims 1 to 6,
The second determination unit refers to the dictionary data, and whether there is a common kanji character between the explanatory text of the word indicated by each homonym data and the character string indicated by the first character string data Determine whether
The said 2nd determination part outputs the said homonym word data corresponding to the said explanatory note containing the said common kanji as a search word data.
請求項1乃至9のいずれかに記載の音声辞書検索システムにおいて、
前記対象決定部及び前記出力部に接続されたユーザ補助部を更に具備し、
前記対象決定部が検索対象を特定できなかった場合、前記ユーザ補助部は、前記出力部を通して、発声の誘導・案内・促進をユーザに通知する
音声辞書検索システム。
The speech dictionary search system according to any one of claims 1 to 9,
A user assistance unit connected to the target determination unit and the output unit;
When the target determining unit cannot identify a search target, the user auxiliary unit notifies the user of guidance / guidance / promotion of utterance through the output unit.
入力される音声に対して辞書データを参照して辞書検索を行う音声辞書検索システムにおいて、
(a)前記入力される音声に対応する入力文字列データを生成するステップと、
(b)少なくとも1つの前記入力文字列データから第1文字列データと第2文字列データとを生成するステップと、
(c)前記辞書データを参照して前記第2文字列データが示す単語の複数の同音異義語を検出し、前記複数の同音異義語のそれぞれを示す複数の同音異義語データを生成するステップと、
(d)前記複数の同音異義語データの各々の特性と前記第1文字列データの特性との間に共通点があるかどうかを判定するステップと、
(e)前記複数の同音異義語データのうち前記共通点を有する一の前記同音異義語データを、前記辞書検索の対象を示す検索語データとして決定するステップと、
(f)前記辞書データを参照して、前記検索語データが示す前記対象に対して前記辞書検索を行うステップと
をコンピュータに実行させるための
音声辞書検索プログラム。
In a speech dictionary search system that performs dictionary search with reference to dictionary data for input speech,
(A) generating input character string data corresponding to the input voice;
(B) generating first character string data and second character string data from at least one of the input character string data;
(C) detecting a plurality of homophones of the word indicated by the second character string data with reference to the dictionary data, and generating a plurality of homophones data indicating each of the plurality of homophones; ,
(D) determining whether there is a common point between the characteristics of each of the plurality of homonym data and the characteristics of the first character string data;
(E) determining one homonym term data having the common point among the plurality of homonym term data as search term data indicating the object of the dictionary search;
(F) A speech dictionary search program for causing a computer to execute the step of performing the dictionary search on the target indicated by the search word data with reference to the dictionary data.
請求項11に記載の音声辞書検索プログラムにおいて、
前記(b)生成するステップは、
(b−1)1つの前記入力文字列データが示す文字列を、先行する第1文字列と後行する第2文字列とに分割するステップと、
(b−2)前記第1文字列を示すデータを前記第1文字列データとして設定するステップと、
(b−3)前記第2文字列を示すデータを前記第2文字列データとして設定するステップと
を含む
音声辞書検索プログラム。
The speech dictionary search program according to claim 11,
The step (b) of generating includes
(B-1) dividing a character string indicated by one input character string data into a first character string preceding and a second character string following;
(B-2) setting data indicating the first character string as the first character string data;
(B-3) A speech dictionary search program, comprising: setting data indicating the second character string as the second character string data.
請求項11に記載の音声辞書検索プログラムにおいて、
前記(b)生成するステップは、
(b−4)2つの前記入力文字列データのうち先に入力された前記入力文字列データを、前記第2文字列データとして設定するステップと、
(b−5)2つの前記入力文字列データのうち後に入力された前記入力文字列データを、前記第1文字列データとして設定するステップと
を含む
音声辞書検索プログラム。
The speech dictionary search program according to claim 11,
The step (b) of generating includes
(B-4) setting the input character string data input first among the two input character string data as the second character string data;
(B-5) A speech dictionary search program including the step of setting the input character string data input later among the two input character string data as the first character string data.
請求項11乃至13のいずれかに記載の音声辞書検索プログラムにおいて、
前記(d)判定するステップは、
(d−1)前記複数の同音異義語データが示す単語の読みと、前記第1文字列データが示す文字列の読みとの間に、共通の読みがあるかどうかを判定するステップを含み、
前記(e)決定するステップは、
(e−1)前記第1文字列データが示す前記文字列中から、前記共通の読みを有する共通部分を抽出するステップと、
(e−2)前記共通部分と同一の単語を示す前記同音異義語データを、前記検索語データとして決定するステップと
を含む
音声辞書検索プログラム。
The speech dictionary search program according to any one of claims 11 to 13,
The step (d) of determining includes
(D-1) including a step of determining whether or not there is a common reading between the reading of the word indicated by the plurality of homonym data and the reading of the character string indicated by the first character string data;
The step (e) of determining includes
(E-1) extracting a common part having the common reading from the character string indicated by the first character string data;
(E-2) A speech dictionary search program comprising: determining the homonym data indicating the same word as the common part as the search word data.
請求項11乃至13のいずれかに記載の音声辞書検索プログラムにおいて、
前記(d)判定するステップは、
(d−2)前記各々の同音異義語データが示す文字列と、前記第1文字列データが示す文字列との間に、共通の漢字があるかどうかを判定するステップを含み、
前記(e)決定するステップは、
(e−3)前記共通の漢字を含む前記同音異義語データを、前記検索語データとして決定するステップを含む
音声辞書検索プログラム。
The speech dictionary search program according to any one of claims 11 to 13,
The step (d) of determining includes
(D-2) including a step of determining whether or not there is a common Chinese character between the character string indicated by each of the homonym data and the character string indicated by the first character string data;
The step (e) of determining includes
(E-3) A speech dictionary search program including a step of determining the homonym data including the common kanji as the search word data.
請求項11乃至13のいずれかに記載の音声辞書検プログラムにおいて、
前記(d)判定するステップは、
(d−3)前記辞書データを参照し、前記各々の同音異義語データが示す単語の説明文と、前記第1文字列データが示す文字列との間に、共通の漢字があるかどうかを判定するステップを含み、
前記(e)決定するステップは、
(e−4)前記共通の漢字を含む前記説明文に対応する前記同音異義語データを、前記検索語データとして決定するステップを含む
音声辞書検索プログラム。
The speech dictionary inspection program according to any one of claims 11 to 13,
The step (d) of determining includes
(D-3) Referring to the dictionary data, whether or not there is a common kanji character between the explanatory text of the word indicated by each homonym data and the character string indicated by the first character string data Including the step of determining,
The step (e) of determining includes
(E-4) A speech dictionary search program including a step of determining, as the search word data, the homonym data corresponding to the explanatory text including the common kanji.
JP2004080845A 2004-03-19 2004-03-19 Speech dictionary search system and speech dictionary search program Pending JP2005267399A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004080845A JP2005267399A (en) 2004-03-19 2004-03-19 Speech dictionary search system and speech dictionary search program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004080845A JP2005267399A (en) 2004-03-19 2004-03-19 Speech dictionary search system and speech dictionary search program

Publications (1)

Publication Number Publication Date
JP2005267399A true JP2005267399A (en) 2005-09-29

Family

ID=35091868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004080845A Pending JP2005267399A (en) 2004-03-19 2004-03-19 Speech dictionary search system and speech dictionary search program

Country Status (1)

Country Link
JP (1) JP2005267399A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083165A (en) * 2006-09-26 2008-04-10 Xanavi Informatics Corp Voice recognition processing program and voice recognition processing method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56162132A (en) * 1980-05-16 1981-12-12 Mitsubishi Electric Corp Chinese character input device
JPH086940A (en) * 1994-06-16 1996-01-12 Hitachi Ltd Voice input system and information processor using the system
JPH1011433A (en) * 1996-06-24 1998-01-16 Nec Corp Method and device for homonym selection of japanese syllabary-chinese character conversion system
JPH10340263A (en) * 1997-06-09 1998-12-22 Just Syst Corp Method and device for japanese syllabary-to-chinese character conversion, and recording medium where their program is recorded
JPH11306176A (en) * 1998-04-22 1999-11-05 Sharp Corp Character processing device and method and medium storing control program of the device and method
JP2001188794A (en) * 1999-12-28 2001-07-10 Casio Comput Co Ltd Voice input dictionary device and storage medium with voice input dictionary control program
JP2002116789A (en) * 2000-10-05 2002-04-19 Toshiba Corp Data conversion system, data recognition system, data processing system, and storage medium stored with program
WO2002067244A1 (en) * 2001-02-19 2002-08-29 Cai Co., Ltd Speech recognition method for speech interaction, speech recognition system and speech recognition program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56162132A (en) * 1980-05-16 1981-12-12 Mitsubishi Electric Corp Chinese character input device
JPH086940A (en) * 1994-06-16 1996-01-12 Hitachi Ltd Voice input system and information processor using the system
JPH1011433A (en) * 1996-06-24 1998-01-16 Nec Corp Method and device for homonym selection of japanese syllabary-chinese character conversion system
JPH10340263A (en) * 1997-06-09 1998-12-22 Just Syst Corp Method and device for japanese syllabary-to-chinese character conversion, and recording medium where their program is recorded
JPH11306176A (en) * 1998-04-22 1999-11-05 Sharp Corp Character processing device and method and medium storing control program of the device and method
JP2001188794A (en) * 1999-12-28 2001-07-10 Casio Comput Co Ltd Voice input dictionary device and storage medium with voice input dictionary control program
JP2002116789A (en) * 2000-10-05 2002-04-19 Toshiba Corp Data conversion system, data recognition system, data processing system, and storage medium stored with program
WO2002067244A1 (en) * 2001-02-19 2002-08-29 Cai Co., Ltd Speech recognition method for speech interaction, speech recognition system and speech recognition program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008083165A (en) * 2006-09-26 2008-04-10 Xanavi Informatics Corp Voice recognition processing program and voice recognition processing method

Similar Documents

Publication Publication Date Title
KR100679042B1 (en) Method and apparatus for speech recognition, and navigation system using for the same
US8731927B2 (en) Speech recognition on large lists using fragments
JP5480760B2 (en) Terminal device, voice recognition method and voice recognition program
US8380505B2 (en) System for recognizing speech for searching a database
US7529678B2 (en) Using a spoken utterance for disambiguation of spelling inputs into a speech recognition system
JP4680714B2 (en) Speech recognition apparatus and speech recognition method
JP4867622B2 (en) Speech recognition apparatus and speech recognition method
US20060206331A1 (en) Multilingual speech recognition
US20060293889A1 (en) Error correction for speech recognition systems
US20080162137A1 (en) Speech recognition apparatus and method
US20120143607A1 (en) Multimodal disambiguation of speech recognition
KR101526918B1 (en) Multilingual non-native speech recognition
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
JP2008064885A (en) Voice recognition device, voice recognition method and voice recognition program
US8566091B2 (en) Speech recognition system
JP2005227686A (en) Speech recognizer, speech recognition program and recording medium
JP2010139826A (en) Voice recognition system
JP2010134074A (en) Voice recognition device, method and program
JP4639990B2 (en) Spoken dialogue apparatus and speech understanding result generation method
JP2006208905A (en) Voice dialog device and voice dialog method
KR101250897B1 (en) Apparatus for word entry searching in a portable electronic dictionary and method thereof
JP2005267399A (en) Speech dictionary search system and speech dictionary search program
JP2009031328A (en) Speech recognition device
KR20100021910A (en) Method for speech recognition and apparatus thereof
JP6351440B2 (en) Speech recognition apparatus and computer program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080910

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090105

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090107

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090406

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090602

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090619

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110630

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110831