JP2004301875A - Speech recognition device - Google Patents

Speech recognition device Download PDF

Info

Publication number
JP2004301875A
JP2004301875A JP2003091311A JP2003091311A JP2004301875A JP 2004301875 A JP2004301875 A JP 2004301875A JP 2003091311 A JP2003091311 A JP 2003091311A JP 2003091311 A JP2003091311 A JP 2003091311A JP 2004301875 A JP2004301875 A JP 2004301875A
Authority
JP
Japan
Prior art keywords
keyword
speech recognition
speaker
voice
operation command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003091311A
Other languages
Japanese (ja)
Inventor
Hiroyuki Hoshino
博之 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2003091311A priority Critical patent/JP2004301875A/en
Publication of JP2004301875A publication Critical patent/JP2004301875A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a speech recognition device which starts speech recognition with a specified word, is prevented from starting speech recognition not intended by a speaker owing to the appearance of a specified word in an ordinary conversation and imposes little load on speaking. <P>SOLUTION: As specified words, a limited plurality of words are used and words of a language which is not the mother tongue of the speaker are used in order to decrease the frequency of appearance of specified words in an ordinary conversation. Further, some of the specified words are given meanings of voice operation commands and operations are performed simultaneously with the start of speech recognition in order to lighten the speaking load. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、音声認識装置に関し、特に、手動のトークスイッチが不要な音声認識装置に関する。
【0002】
【従来の技術】
【特許文献1】
特開平11−359287号公報
【特許文献2】
特開2000−56790号公報
【特許文献3】
特開2000−194293号公報
【特許文献4】
特開2000−322078号公報
【特許文献5】
特開2000−194393号公報
【0003】
従来、音声認識装置においては、発話者は発声の度に毎回トークスイッチを操作しなければならず、このようなスイッチ操作は煩わしいものである。特に、車載のナビゲーション装置における音声入力をする際には、運転操作中にトークスイッチを操作するのは煩雑な作業である。このような問題を解決するためにトークスイッチの代わりに話者の画像から発話の有無を判定するもの、特定の言葉を認識する手段を設けることにより音声認識を開始するものが各社から考案されている。
【0004】
特開平11−359287号公報「音声認識装置」 は、カメラにより発話者を撮影し、話者の画像から、発話の有無を判定することにより、トークスイッチを不要としている。また、特開2000−56790号公報「音声伝達方式」 、特開2000−194293号公報「音声認識制御装置」 、特開2000−322078号公報「車載型音声認識装置」は、特定の言葉を認識する手段を設けることにより、音声認識を開始するものである。特開2000−194393号公報においては、トークスイッチとも併用できる装置を示している。
【0005】
【発明が解決しようとする課題】
トークスイッチの代わりに特定の言葉を認識する手段を設けることにより、音声認識を開始する装置では、特定の言葉の次に再び音声操作コマンドを入力する必要があり、発話者の発話負担が大きく、使い勝手を損なっていた。また、その「特定の言葉」 が、発話者の母国語の場合、通常の会話にその言葉が出現し、それが誤って認識されると、発話者が意図していないのに音声認識が開始されてしまうという問題があった。
【0006】
本発明の目的は、この点を考慮し、音声認識開始のための特定の言葉を、あまり多くない複数とし、その内のいくつかには、音声操作コマンドの役割りを持たせることにより、発話者の発話負担を軽くし、使い勝手を向上させる。
【0007】
さらに、上記の「特定の言葉」 が、通常の会話に出現し、誤って認識されることにより発話者の意図しない音声認識が開始されない音声認識装置を得ることである。
【0008】
なお、上述したある1つの発明が、上記した全ての目的を同時に達成するものと解されるべきではなく、個々の発明が、それぞれの目的を達成するものと解されるべきである。
【0009】
【課題を解決するための手段】
従って、本発明においては、発話者が発した音声を認識する音声認識装置において、複数の特定の言葉である複数のキーワードを認識するキーワード認識手段と、キーワード認識手段により認識されたキーワードが操作の意味を持つ操作コマンドかどうかを判定する操作コマンド判定手段を有するようにした。さらに、操作コマンド判定手段により操作コマンドと判定された場合は、コマンド操作を実行し、操作コマンドと判定されない場合は、音声認識手段により音声認識を行い、認識結果に基づいた操作を実行するようにしたキーワード制御手段を有するようにしたことを特徴とする。
【0010】
さらに、請求項2の発明は、キーワードが普通の会話に出現することにより意図しない音声認識が開始されないようにするために、キーワードは、一般的な会話への出現頻度の少ない特定の複数の言葉であることを特徴とする。
【0011】
さらに、請求項3の発明は、キーワードが普通の会話に出現することにより意図しない音声認識が開始されないようにするために、キーワードは、本音声認識装置において想定している主なユーザが用いる言語による会話において使用することの少ない他国語であることを特徴とする。例えば、本装置が、主なユーザとして日本人を想定している場合、会話に用いられる言語は、日本語である。この場合、キーワードとして、日本語でない、英語、フランス語等を用いることを特徴とする。
【0012】
【発明の作用及び、効果】
従って、請求項1の発明によれば、発話者が発した音声を認識する音声認識装置において、複数の特定の言葉である複数のキーワードを認識するキーワード認識手段を設けることにより、発話者の発したキーワードを認識することができるようになる。さらに、キーワード認識手段により認識されたキーワードが操作の意味を持つ操作コマンドかどうかを判定する操作コマンド判定手段と、操作コマンド判定手段により操作コマンドと判定された場合は、コマンド操作を実行し、操作コマンドと判定されない場合は、音声認識手段により音声認識を行い、認識結果に基づいた操作を実行するようにしたキーワード制御手段を有するようにした。従って、発話者が発したキーワードが、操作コマンドである場合には、音声認識の開始と共に、コマンド操作が開始されるようになり、発話者の発話負担が軽減されるようになる。また、キーワードが、操作コマンドで無い場合は、通常の音声認識が開始されるようになる。
【0013】
さらに、請求項2の発明によれば、キーワードは、一般的な会話への出現頻度の少ない複数の特定の言葉であるようにしたので、キーワードが発話者の通常の会話に出現する頻度が少なくなり、キーワードが誤認識され、発話者の意図しない音声認識が開始されることが少なくなる。
【0014】
さらに、請求項3の発明によれば、キーワードは、本音声認識装置において想定している主なユーザが用いる言語による会話において使用することの少ない他国語を用いるようにした。従って、例えば、日本語を用いるユーザに対する音声認識装置としては、キーワードとして、英語を用いることにより、通常の日本語の会話にキーワードが出現する頻度を極めて低くすることが可能となる。同様に、英語を用いるユーザに対する音声認識装置のキーワードとして、日本語を用いることにより、英語の通常会話にキーワードが出現する頻度を低くすることが可能となる。このように、対象としているユーザが用いる言語以外の他国語を用いることにより、通常の会話にキーワードが出現する頻度を少なくすることが可能となり、発話者の意図しない音声認識の開始を少なくすることが可能となる。さらに、キーワードとして設定する特定の言葉として、キーワードが要求される本来の意味を持った言葉を設定することが可能となる。これにより、会話には出現する頻度は低いが、キーワードとしての意味は妥当である単語を選定することが可能となる。
【0015】
【発明の実施の形態】
ここでは、車載のナビゲーション装置等に用いられる音声認識装置に本発明を適用した具体例に関して述べる。
先ず、図1は本発明の実施形態の一例である音声認識装置10を用いたナビゲーション装置1の構成を示すブロック図である。構成及び、動作の概要を図により説明する。音声認識装置10は、マイクロホン18、音声認識ECU(Electronic Control Unit) により構成され、発話者が音声コマンド(例えば走行目的地を指定するためのコマンド)を発すると、音声はマイクロホン18に入力され、電気的な信号に変換されて音声認識ECU19に送られる。音声認識ECU19は、DSP(デジタルシグナルプロセッサ)を有し、音声データを解析し、発話者が何を言ったのかを認識する。周知の認識処理が行われればよく、ダイナミックプログラミング法(動的計画法、DP法)や、ヒドンマルコフモデル(隠れマルコフモデル、HMM)を使った確率手法などが適用可能である。概略的には、例えば、入力信号に対して窓関数処理、フーリエ変換処理などが行われ、音声データのケプストラムなどが求められる(音響処理)。その後、キーワード認識手段11により、音響処理後の信号と、予め用意されたキーワードテンプレート12(認識対象単語のデータ)とのパターンマッチングが行われる。マッチング結果のよい単語が、発声された単語であると決定される。認識結果は操作コマンド判定手段13に、出力され、操作コマンドであるかどうか判定される。
【0016】
この場合も、例えば、操作コマンドテンプレート14が用意され、パターンマッチングが行われる。判定結果は、キーワード制御手段15に出力され、操作コマンドであると判定されると、操作コマンドが、ナビゲーション装置20に出力され、操作コマンドで無いと判定されると、さらに、発せられた音声が何であるか、判定するために、音声認識手段16において、音声認識ワードテンプレート17とのパターンマッチングにより決定する。結果は、キーワード制御手段15に出力され、ナビゲーション手段30への指令及び、返答として出力される。ナビゲーション手段30は、発話者の発した音声コマンド及び、返答に従って、表示装置40への地図の表示、スピーカ20を介して、さらに発話を促したり、経路の誘導を行う等の動作する。
【0017】
次に、図2に示す本発明の特徴である、特定の言葉であるキーワードを用いた処理の例を、図3のフローチャートに従い処理の概要について説明する。
【0018】
先ず、マイクロホン18からの音声の入力があった場合、ステップ100において、音声入力処理が行われる。次に、ステップ102において、音声認識ECU19において、音声データの解析処理がなされる。
【0019】
次に、ステップ104において、解析された音声が、キーワードであるかどうか、キーワードテンプレート(a) を用いて、パターンマッチングがなされ、発話が、「現在地」 、「行き先」 、「ナビ操作」 で有るかどうか判断される。ここで、キーワードでないと判断されると、音声認識は開始されないので、キーワードが入力されるか、トークスイッチが押されるまで、音声認識は開始されない。一方、キーワードであると判断されると、トークスイッチが押された場合と同様に音声認識処理が開始される。これらのうち、「現在地」 、「行き先」 は、通常ナビゲーション装置において、特に良く用いられるコマンド語である。
【0020】
この「現在地」 、「行き先」 には、音声認識開始だけでなく、音声操作コマンドの役割を持っているので、ステップ106において、操作コマンドテンプレート(c)とのパターンマッチングにより、「現在地」 、「行き先」 と判断されると、ステップ108において、認識コマンド操作処理が行われる。これは、キーワード制御手段15により、「現在地」 、「行き先」 コマンドが入力されたことが、ナビゲーション手段30に出力され、ナビゲーション手段30において、現在地の表示、行き先設定がなされるように処理がされる。必要に応じて、次の音声入力を促するためのガイダンスがスピーカ20よりなされる。また、発話が「ナビ操作」 の場合、キーワード制御手段15は、音声認識手段に対するトークスイッチが押された場合と同じように、全ての音声コマンドを入力できる状態にする(ステップ110)。その後、ステップ112において、音声認識手段16により、音声認識ワードテンプレート17を用いて、音声認識を行い、音声認識結果が、コマンドであれば、コマンドに対する操作を実行するようにする(ステップ114)。
【0021】
さらに、他の実施例として、キーワードテンプレートにおいて、特定の言葉「現在地」 、「行き先」 「ナビ操作」 を日本語でなく、キーワードテンプレート(b)のように、英語の「ポジション」 、「デスティネーション」 、「オペレーション」 を用いる。これにより、普段日本人が、会話で用いない言葉とすることによが可能となり、通常に会話に、「特定の言葉」 が出現し、それが誤って認識され発話者の意図しない音声認識が開始されてしまうことを少なくすることができる。
【0022】
さらに、他の実施例として、上記2つの実施例ともに、当然トークスイッチと組み合わせを変えることも可能である。例えば、英語の「デスティネーション」 のみを音声認識開始、かつ、音声操作コマンドとすることにより、ナビ操作において、最もよく使われる機能の一つである行き先設定を、トークスイッチ無しで、かつ、少ない発声で短時間に完了することができる。その他の音声コマンドは、トークスイッチを押すことにより、入力可能となる。これにより、さらに、発話者の意図しない音声認識の開始を防ぐことが可能となる。
【0023】
本発明の会話の一例
発話者:「デスティネーション」
ナビ:「行き先を言ってください」
発話者:「 名古屋城」
【0024】
従来の発明の会話の例
発話者:「ナビ」
ナビ:「 ナビ音声認識を開始します。コマンドをどうぞ。」
発話者:「 行き先」
ナビ:「 行き先を言ってください。」
発話者:「 名古屋城」
【0025】
以上により、本発明は、発話者の発話負担を小さくし、トークスイッチの操作を減らすことが可能となる。トークスイッチの操作は、発話者が、運転手の場合には、負担の大きい操作であるので、使い勝手を向上させることができる。さらには、操作時間の短縮が可能になるので、運転中に車載ナビゲーション装置を使用する場合の安全性の向上を期待することができる。
【0026】
尚、上記実施例では、日本語キーワードとして、「現在地」 、「行き先」 、「ナビ操作」 、代表的な外国語のキーワードとして英語を用い、「ポジション」 、「デスティネーション」 、「オペレーション」 を用いたが、もちろんこれ以外でも良く、発明の主旨を損なわない程度であれば、さらにキーワードを増やしても良い。
【0027】
尚、上記実施例では、対象とする主なユーザが、日本語を用いる場合を想定しているが、ユーザが英語を用いる場合は、キーワードとして、日本語、ドイツ語等を用いるようにすれば良い。他の言語においても同様に想定するユーザが用いる言語以外の言語によりキーワードを設定すればよい。
【0028】
さらに、音声認識ワードテンプレートに記した単語は、一例であり、実際に認識できる単語は、これより多くても良く、また、1つの意味に対して、複数の単語を用意することにより、さらに、使い勝手を良くすることが可能である。
【0029】
本実施例では、車両用ナビゲーション装置に本発明の音声認識装置が備えられていた。しかし、本発明の適用範囲が車両用ナビゲーション装置に限定されないことはもちろんである。本発明は、他の車載機器に備えられる認識装置にも、また、車両以外の環境で使われる音声認識装置にも同様に適用可能である。
【0030】
上述した実施形態は、本発明の一例であって、これに限定されるものではなく、発明の本質に照らして、様々な変形例が考えられる。
【図面の簡単な説明】
【図1】本発明の実施形態の音声認識装置の構成を示すブロック図である。
【図2】音声認識に用いられるキーワード、操作コマンド、音声認識ワードのテンプレートの一例を示した説明図。
【図3】本発明の音声認識装置の動作を示すフローチャートである。
【符号の説明】
1…ナビゲーション装置
10…音声認識装置
11…キーワード認識手段
12…キーワードテンプレート
13…操作コマンド判定手段
14…操作コマンドテンプレート
15…キーワード制御手段
16…音声認識手段
17…音声認識ワードテンプレート
18…マイクロホン
19…音声認識ECU
20…スピーカ
30…ナビゲーション手段
40…表示装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a speech recognition device, and more particularly to a speech recognition device that does not require a manual talk switch.
[0002]
[Prior art]
[Patent Document 1]
JP-A-11-359287 [Patent Document 2]
JP 2000-56790 A [Patent Document 3]
JP 2000-194293 A [Patent Document 4]
JP 2000-322078 A [Patent Document 5]
JP 2000-194393 A
Conventionally, in a speech recognition device, a speaker must operate a talk switch every time he or she utters, and such a switch operation is troublesome. In particular, when performing voice input in a vehicle-mounted navigation device, operating the talk switch during driving operation is a complicated operation. In order to solve such a problem, those that determine the presence or absence of speech from the image of the speaker instead of the talk switch and those that start voice recognition by providing means for recognizing specific words have been devised by various companies. I have.
[0004]
Japanese Unexamined Patent Application Publication No. 11-359287 discloses a "voice recognition device" which eliminates the need for a talk switch by photographing a speaker with a camera and determining the presence or absence of a speech from the image of the speaker. Also, Japanese Patent Application Laid-Open No. 2000-56790, "Speech Transmission Method", Japanese Patent Application Laid-Open No. 2000-194293, "Speech Recognition Control Device", and Japanese Patent Application Laid-Open No. 2000-322078, "Onboard Speech Recognition Device" recognize specific words. The voice recognition is started by providing the means for performing the voice recognition. Japanese Patent Application Laid-Open No. 2000-194393 discloses an apparatus that can be used together with a talk switch.
[0005]
[Problems to be solved by the invention]
By providing a means for recognizing a specific word in place of the talk switch, in a device that starts voice recognition, it is necessary to input a voice operation command again after the specific word, and the utterance burden of the speaker is large, The usability was impaired. Also, if the "specific word" is the speaker's native language, the word appears in a normal conversation, and if it is incorrectly recognized, speech recognition starts even if the speaker does not intend. There was a problem that would be done.
[0006]
In view of this point, the object of the present invention is to make the specific words for the start of voice recognition into a plurality of not many words, and to make some of them have the role of voice operation commands, thereby making the utterance possible. To reduce the utterance burden on people and improve usability.
[0007]
Another object of the present invention is to provide a speech recognition apparatus in which the above-mentioned "specific words" appear in a normal conversation and are not erroneously recognized, so that speech recognition not intended by the speaker is not started.
[0008]
It should be understood that one invention described above is not intended to achieve all the objects described above at the same time, and individual inventions are intended to achieve the respective objects.
[0009]
[Means for Solving the Problems]
Therefore, according to the present invention, in a speech recognition device that recognizes a voice uttered by a speaker, a keyword recognition unit that recognizes a plurality of keywords that are a plurality of specific words, and a keyword recognized by the keyword recognition unit is used for an operation. An operation command judging means for judging whether the command is a meaningful operation command is provided. Further, if the operation command is determined by the operation command determination unit, a command operation is performed, and if the operation command is not determined, voice recognition is performed by the voice recognition unit, and an operation based on the recognition result is performed. And a keyword control unit.
[0010]
Furthermore, in order to prevent unintended speech recognition from being started when the keyword appears in a normal conversation, the keyword includes a plurality of specific words having a low appearance frequency in a general conversation. It is characterized by being.
[0011]
Furthermore, in order to prevent unintended speech recognition from being started when the keyword appears in a normal conversation, the keyword is set in a language used by a main user assumed in the speech recognition apparatus. It is characterized by the fact that it is a foreign language that is rarely used in conversations with other people. For example, when the present device assumes a Japanese user as a main user, the language used for conversation is Japanese. In this case, non-Japanese, English, French and the like are used as keywords.
[0012]
Actions and effects of the present invention
Therefore, according to the first aspect of the present invention, in the speech recognition apparatus for recognizing a voice uttered by a speaker, a keyword recognition unit for recognizing a plurality of keywords, which are a plurality of specific words, is provided. It becomes possible to recognize the keyword that has been set. Further, an operation command determining means for determining whether the keyword recognized by the keyword recognition means is an operation command having the meaning of the operation, and a command operation is executed when the operation command determining means determines that the command is an operation command. When it is not determined that the command is a command, the voice recognition unit performs voice recognition, and has a keyword control unit that executes an operation based on the recognition result. Therefore, when the keyword uttered by the speaker is an operation command, the command operation is started at the same time as the start of voice recognition, and the utterance burden on the speaker is reduced. If the keyword is not an operation command, normal speech recognition is started.
[0013]
Further, according to the second aspect of the present invention, the keyword is a plurality of specific words having a low appearance frequency in a general conversation. Therefore, the frequency of occurrence of the keyword in a normal conversation of a speaker is low. In other words, it is less likely that a keyword is erroneously recognized and speech recognition not intended by the speaker is started.
[0014]
Further, according to the invention of claim 3, as the keyword, a foreign language rarely used in a conversation in a language used by a main user assumed in the voice recognition device is used. Therefore, for example, as a speech recognition device for a user who uses Japanese, by using English as a keyword, it becomes possible to extremely reduce the frequency of occurrence of the keyword in ordinary Japanese conversation. Similarly, by using Japanese as a keyword of the voice recognition device for a user who uses English, it is possible to reduce the frequency of occurrence of the keyword in a normal English conversation. As described above, by using a language other than the language used by the target user, it is possible to reduce the frequency of occurrence of the keyword in a normal conversation, and to reduce the start of speech recognition unintended by the speaker. Becomes possible. Further, as a specific word set as a keyword, it is possible to set a word having an original meaning that a keyword is required. As a result, it is possible to select a word that appears at a low frequency in a conversation but has a valid meaning as a keyword.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Here, a specific example in which the present invention is applied to a voice recognition device used for an in-vehicle navigation device or the like will be described.
First, FIG. 1 is a block diagram showing a configuration of a navigation device 1 using a voice recognition device 10 according to an embodiment of the present invention. An outline of the configuration and operation will be described with reference to the drawings. The voice recognition device 10 includes a microphone 18 and a voice recognition ECU (Electronic Control Unit). When a speaker issues a voice command (for example, a command for specifying a travel destination), voice is input to the microphone 18, The signal is converted into an electric signal and sent to the voice recognition ECU 19. The voice recognition ECU 19 has a DSP (digital signal processor), analyzes voice data, and recognizes what the speaker has said. A known recognition process may be performed, and a dynamic programming method (dynamic programming method, DP method), a stochastic method using a hidden Markov model (hidden Markov model, HMM), or the like can be applied. Schematically, for example, window function processing, Fourier transform processing, and the like are performed on an input signal, and a cepstrum or the like of audio data is obtained (acoustic processing). Thereafter, the keyword recognition unit 11 performs pattern matching between the signal after the acoustic processing and a keyword template 12 (data of a recognition target word) prepared in advance. A word with a good matching result is determined to be a spoken word. The recognition result is output to the operation command judging means 13, and it is judged whether the command is an operation command.
[0016]
Also in this case, for example, the operation command template 14 is prepared, and pattern matching is performed. The determination result is output to the keyword control means 15, and when it is determined that the operation command is an operation command, the operation command is output to the navigation device 20, and when it is determined that the operation command is not an operation command, the uttered sound is further output. In order to determine what this is, the voice recognition means 16 determines it by pattern matching with the voice recognition word template 17. The result is output to the keyword control unit 15 and output as a command to the navigation unit 30 and a reply. The navigation means 30 performs operations such as displaying a map on the display device 40, prompting further utterance, guiding a route, and the like via the speaker 20 according to the voice command and response from the speaker.
[0017]
Next, an example of processing using a keyword as a specific word, which is a feature of the present invention shown in FIG. 2, will be described with reference to the flowchart of FIG.
[0018]
First, when a voice is input from the microphone 18, a voice input process is performed in step 100. Next, in step 102, the voice recognition ECU 19 performs a voice data analysis process.
[0019]
Next, in step 104, whether or not the analyzed voice is a keyword is subjected to pattern matching using the keyword template (a), and the utterances are "current location", "destination", and "navigation operation". It is determined whether or not. If it is determined that the keyword is not a keyword, the voice recognition is not started. Therefore, the voice recognition is not started until a keyword is input or a talk switch is pressed. On the other hand, if it is determined that the keyword is a keyword, the voice recognition process is started as in the case where the talk switch is pressed. Of these, “current location” and “destination” are command words that are particularly frequently used in a normal navigation device.
[0020]
Since the “current location” and “destination” have a role of a voice operation command as well as the start of voice recognition, in step 106, the “current location” and “destination” are determined by pattern matching with the operation command template (c). If it is determined to be “destination”, a recognition command operation process is performed in step 108. That is, the fact that the "current location" and "destination" commands are input by the keyword control means 15 is output to the navigation means 30, and the navigation means 30 performs processing such that the current location is displayed and the destination is set. You. Guidance for prompting the next voice input is provided from the speaker 20 as necessary. If the utterance is "navigating operation", the keyword control unit 15 enters a state where all voice commands can be input, as in the case where the talk switch for the voice recognition unit is pressed (step 110). Thereafter, in step 112, speech recognition is performed by the speech recognition means 16 using the speech recognition word template 17, and if the speech recognition result is a command, an operation for the command is executed (step 114).
[0021]
Further, as another example, in the keyword template, the specific words "current location", "destination", and "navigation operation" are not written in Japanese, but in English "position", "destination", as in the keyword template (b). ”And“ Operation ”. This makes it possible for Japanese people to use words that are not usually used in conversations. Normally, "specific words" appear in conversations, which are erroneously recognized and speech recognition not intended by the speaker is performed. It can be less likely to be started.
[0022]
Further, as another embodiment, it is naturally possible to change the combination with the talk switch in each of the above two embodiments. For example, by using only the English “destination” as a voice recognition start command and a voice operation command, the destination setting, which is one of the most frequently used functions in the navigation operation, can be performed without a talk switch and in a small number. It can be completed in a short time by speaking. Other voice commands can be input by pressing the talk switch. As a result, it is possible to prevent the speech recognition from being started unintentionally by the speaker.
[0023]
Example of conversation of the present invention Speaker: "Destination"
Navi: "Please tell us where you are going"
Speaker: "Nagoya Castle"
[0024]
Example of conventional invention conversation Speaker: "Navi"
Navigation: "Start navigation speech recognition.
Speaker: "Destination"
Navi: "Please tell me where you are going."
Speaker: "Nagoya Castle"
[0025]
As described above, according to the present invention, it is possible to reduce the utterance burden on the speaker and reduce the number of operations of the talk switch. The operation of the talk switch is a burdensome operation when the speaker is a driver, so that usability can be improved. Further, since the operation time can be reduced, it is possible to expect an improvement in safety when using the in-vehicle navigation device during driving.
[0026]
In the above embodiment, "current position", "destination", "navigation operation" is used as a Japanese keyword, and English is used as a representative foreign language keyword, and "position", "destination", and "operation" are used. Although the keyword is used, other keywords may be used, and the keyword may be further increased as long as the gist of the invention is not impaired.
[0027]
In the above embodiment, it is assumed that the target user uses Japanese, but if the user uses English, Japanese, German, etc. may be used as keywords. good. Similarly, in other languages, the keyword may be set in a language other than the language used by the assumed user.
[0028]
Furthermore, the words described in the speech recognition word template are merely examples, and the number of words that can be actually recognized may be larger than this, and by preparing a plurality of words for one meaning, It is possible to improve usability.
[0029]
In this embodiment, the vehicular navigation device is provided with the voice recognition device of the present invention. However, it goes without saying that the scope of application of the present invention is not limited to vehicle navigation devices. The present invention is similarly applicable to a recognition device provided in another vehicle-mounted device, and to a speech recognition device used in an environment other than a vehicle.
[0030]
The embodiment described above is an example of the present invention, and the present invention is not limited to the embodiment. Various modifications can be considered in light of the essence of the present invention.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a speech recognition device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an example of a template of a keyword, an operation command, and a speech recognition word used for speech recognition.
FIG. 3 is a flowchart showing the operation of the voice recognition device of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Navigation device 10 ... Voice recognition device 11 ... Keyword recognition means 12 ... Keyword template 13 ... Operation command determination means 14 ... Operation command template 15 ... Keyword control means 16 ... Voice recognition means 17 ... Voice recognition word template 18 ... Microphone 19 ... Voice recognition ECU
Reference Signs List 20 speaker 30 navigation means 40 display device

Claims (3)

発話者が発した音声を認識する音声認識装置において、
複数の特定の言葉である複数のキーワードを認識するキーワード認識手段と、
前記キーワード認識手段により認識された前記キーワードが操作の意味を持つ操作コマンドかどうかを判定する操作コマンド判定手段と、
前記操作コマンド判定手段により操作コマンドと判定された場合は、コマンド操作を実行し、操作コマンドと判定されない場合は、音声認識手段により音声認識を行い、認識結果に基づいた操作を実行するようにしたキーワード制御手段を有することを特徴とする音声認識装置。
In a voice recognition device for recognizing a voice uttered by a speaker,
A keyword recognizing means for recognizing a plurality of keywords which are a plurality of specific words,
Operation command determination means for determining whether the keyword recognized by the keyword recognition means is an operation command having a meaning of an operation,
When the operation command is determined to be an operation command by the operation command determination unit, a command operation is performed, and when the operation command is not determined, voice recognition is performed by the voice recognition unit, and an operation based on the recognition result is performed. A speech recognition device comprising keyword control means.
前記キーワードは、一般的な会話への出現頻度の少ない複数の特定の言葉であることを特徴とする請求項1に記載の音声認識装置。The speech recognition device according to claim 1, wherein the keyword is a plurality of specific words having a low frequency of appearance in general conversation. 前記キーワードは、本音声認識装置において想定している主なユーザが用いる言語による会話において使用することの少ない他国語であることを特徴とする請求項1または請求項2に記載の音声認識装置。The speech recognition device according to claim 1, wherein the keyword is a foreign language rarely used in a conversation in a language used by a main user assumed in the speech recognition device.
JP2003091311A 2003-03-28 2003-03-28 Speech recognition device Pending JP2004301875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003091311A JP2004301875A (en) 2003-03-28 2003-03-28 Speech recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003091311A JP2004301875A (en) 2003-03-28 2003-03-28 Speech recognition device

Publications (1)

Publication Number Publication Date
JP2004301875A true JP2004301875A (en) 2004-10-28

Family

ID=33404711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003091311A Pending JP2004301875A (en) 2003-03-28 2003-03-28 Speech recognition device

Country Status (1)

Country Link
JP (1) JP2004301875A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337513A (en) * 2005-05-31 2006-12-14 Funai Electric Co Ltd Television receiver
WO2007013308A1 (en) * 2005-07-28 2007-02-01 Matsushita Electric Industrial Co., Ltd. Broadcast program recorder, broadcast program management server, broadcast program management method, broadcast program management computer program, computer-readable recording medium where broadcast program management computer program is recorded
KR100749088B1 (en) * 2004-11-24 2007-08-13 주식회사 현대오토넷 Conversation type navigation system and method thereof
WO2017090115A1 (en) * 2015-11-25 2017-06-01 三菱電機株式会社 Speech dialogue device and speech dialogue method
JP2017173720A (en) * 2016-03-25 2017-09-28 パイオニア株式会社 Voice recognition device and method, computer program, and recording medium
CN110503950A (en) * 2018-05-18 2019-11-26 夏普株式会社 Decision maker, electronic equipment, response system, the control method of decision maker
CN110503951A (en) * 2018-05-18 2019-11-26 夏普株式会社 Decision maker, electronic equipment, response system, the control method of decision maker
JP2020060730A (en) * 2018-10-12 2020-04-16 トヨタ自動車株式会社 Voice recognition device
JP2020065186A (en) * 2018-10-18 2020-04-23 清水建設株式会社 Communication device, communication system, and communication method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100749088B1 (en) * 2004-11-24 2007-08-13 주식회사 현대오토넷 Conversation type navigation system and method thereof
JP2006337513A (en) * 2005-05-31 2006-12-14 Funai Electric Co Ltd Television receiver
WO2007013308A1 (en) * 2005-07-28 2007-02-01 Matsushita Electric Industrial Co., Ltd. Broadcast program recorder, broadcast program management server, broadcast program management method, broadcast program management computer program, computer-readable recording medium where broadcast program management computer program is recorded
WO2017090115A1 (en) * 2015-11-25 2017-06-01 三菱電機株式会社 Speech dialogue device and speech dialogue method
JPWO2017090115A1 (en) * 2015-11-25 2018-03-15 三菱電機株式会社 Voice dialogue apparatus and voice dialogue method
US10706853B2 (en) 2015-11-25 2020-07-07 Mitsubishi Electric Corporation Speech dialogue device and speech dialogue method
JP2017173720A (en) * 2016-03-25 2017-09-28 パイオニア株式会社 Voice recognition device and method, computer program, and recording medium
CN110503950A (en) * 2018-05-18 2019-11-26 夏普株式会社 Decision maker, electronic equipment, response system, the control method of decision maker
CN110503951A (en) * 2018-05-18 2019-11-26 夏普株式会社 Decision maker, electronic equipment, response system, the control method of decision maker
JP2020060730A (en) * 2018-10-12 2020-04-16 トヨタ自動車株式会社 Voice recognition device
JP2020065186A (en) * 2018-10-18 2020-04-23 清水建設株式会社 Communication device, communication system, and communication method
JP7186059B2 (en) 2018-10-18 2022-12-08 清水建設株式会社 Communication device and communication system

Similar Documents

Publication Publication Date Title
EP2196989B1 (en) Grammar and template-based speech recognition of spoken utterances
US20050216271A1 (en) Speech dialogue system for controlling an electronic device
JP4859982B2 (en) Voice recognition device
JP4104313B2 (en) Voice recognition device, program, and navigation system
JP2009251388A (en) Native language utterance device
CN111199735A (en) Vehicle-mounted device and voice recognition method
US20200319841A1 (en) Agent apparatus, agent apparatus control method, and storage medium
JP2004301875A (en) Speech recognition device
JP6459330B2 (en) Speech recognition apparatus, speech recognition method, and speech recognition program
JP2018116130A (en) In-vehicle voice processing unit and in-vehicle voice processing method
JP7239359B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
CN110556104B (en) Speech recognition device, speech recognition method, and storage medium storing program
JP4478146B2 (en) Speech recognition system, speech recognition method and program thereof
JP5074759B2 (en) Dialog control apparatus, dialog control method, and dialog control program
US11996099B2 (en) Dialogue system, vehicle, and method of controlling dialogue system
JPH0673800U (en) Voice recognizer
JP4624825B2 (en) Voice dialogue apparatus and voice dialogue method
JP2000276187A (en) Method and device for voice recognition
US11542744B2 (en) Agent device, agent device control method, and storage medium
JP2006023444A (en) Speech dialog system
JP2019212168A (en) Speech recognition system and information processing device
JP7280074B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP2005309185A (en) Device and method for speech input
US20230238020A1 (en) Speech recognition system and a method for providing a speech recognition service
JP2005025100A (en) Vehicle-mounted equipment control device