JP3500948B2 - Voice recognition device - Google Patents

Voice recognition device

Info

Publication number
JP3500948B2
JP3500948B2 JP03581598A JP3581598A JP3500948B2 JP 3500948 B2 JP3500948 B2 JP 3500948B2 JP 03581598 A JP03581598 A JP 03581598A JP 3581598 A JP3581598 A JP 3581598A JP 3500948 B2 JP3500948 B2 JP 3500948B2
Authority
JP
Japan
Prior art keywords
voice
recognition
similarity
information
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03581598A
Other languages
Japanese (ja)
Other versions
JPH11231889A (en
Inventor
英彦 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP03581598A priority Critical patent/JP3500948B2/en
Publication of JPH11231889A publication Critical patent/JPH11231889A/en
Application granted granted Critical
Publication of JP3500948B2 publication Critical patent/JP3500948B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えばナビゲーシ
ョンシステムに組み込むのに好適する装置であって、ナ
ビゲーションシステムに目的地等を入力する場合に音声
による入力を可能にする音声認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device suitable for being incorporated in a navigation system, for example, and relates to a voice recognition device that enables voice input when inputting a destination or the like to the navigation system.

【0002】[0002]

【従来の技術】この種の音声認識装置は、ユーザーが発
した音声を入力し、この入力した音声と、認識辞書に記
憶されている複数の比較対象パターン候補とを比較(照
合)して、ユーザー発生音声と比較対象パターン候補の
一致度合い、即ち、類似度を計算するように構成されて
いる。そして、これら計算した類似度の中で最も高い類
似度を持つ比較対象パターン候補を、認識結果として出
力するように構成されている。
2. Description of the Related Art A voice recognition device of this type inputs a voice uttered by a user, compares the input voice with a plurality of comparison target pattern candidates stored in a recognition dictionary, and compares them. It is configured to calculate the degree of coincidence between the user generated voice and the comparison target pattern candidate, that is, the degree of similarity. The comparison target pattern candidate having the highest similarity among the calculated similarities is output as the recognition result.

【0003】このような構成の音声認識装置をナビゲー
ションシステムに組み込むと、ナビゲーションシステム
に目的地等を入力する場合に、音声による入力が可能と
なる。この構成の場合、ナビゲーションシステムを音声
によって操作可能となるので、運転中のユーザーにとっ
てもかなり利用し易い便利な装置となる。
When the voice recognition device having such a configuration is incorporated in a navigation system, when a destination or the like is input to the navigation system, it is possible to input by voice. In the case of this configuration, the navigation system can be operated by voice, which is a convenient device that is considerably easy to use even for a driving user.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来構成の音声認識装置においては、発音が似ている目的
地や名称等を音声認識するような場合、認識結果が誤っ
ていることがときどきある。そして、このような誤認識
が発生すると、ユーザーが意図しない処理が実行されて
しまう、例えばユーザーが意図しない目的地が設定され
てしまうことがあり、このような場合、ユーザーに不快
感を与えていた。
However, in the above-described conventional voice recognition device, when a voice recognition is performed for a destination or a name having similar pronunciation, the recognition result is sometimes incorrect. When such misrecognition occurs, a process unintended by the user may be executed, for example, a destination unintended by the user may be set.In such a case, the user is uncomfortable. It was

【0005】そこで、本発明の目的は、音声認識の認識
率を向上させることができ、ユーザーが不快に感ずるこ
とを極力防止できる音声認識装置を提供することにあ
る。
Therefore, an object of the present invention is to provide a voice recognition device capable of improving the recognition rate of voice recognition and preventing the user from feeling uncomfortable as much as possible.

【0006】[0006]

【課題を解決するための手段】請求項1の発明では、入
力された音声と、都道府県名、市区町村名、位置、種別
およびランクのデータが付加されている複数の比較対象
パターン候補とを比較して類似度を計算し、この類似度
が高いものを認識結果とするように構成された音声認識
装置において、 所定の地点や所定の地域を示すデータか
らなる優先認識情報を入力する情報入力手段と、 前記優
先認識情報と前記複数の比較対象パターン候補に付加さ
れた位置情報を比較した比較結果、前記複数の比較対象
パターン候補に付加された種別およびランクとを用い
て、類似度を調整する調整ルールと、 前記優先認識情報
と、前記都道府県名、市区町村名、位置、種別およびラ
ンクのデータが付加されている複数の比較対象パターン
候補を前記調整ルールに適用して前記類似度を調整する
類似度調整手段とを備えるように構成した。この構成に
よれば、ユーザーにとって優先的に認識されるべき比較
対象パターン候補が認識され易くなり、認識率もより一
層向上する。
According to the invention of claim 1,
Input voice, prefecture name, city name, position, type
And multiple comparison targets with rank data added
The similarity is calculated by comparing with the pattern candidates, and the similarity is calculated.
Recognition that is configured so that the recognition result is high
Is it data indicating a certain point or a certain area on the device ?
An information input means for inputting Ranaru priority recognition information, said Yu
It is added to the previous recognition information and the plurality of comparison target pattern candidates.
Comparison result of the positional information obtained, the plurality of comparison objects
Using the type and rank added to pattern candidates
Adjustment rule for adjusting the similarity and the priority recognition information
And the prefecture name, city name, location, type and
Patterns to be compared with the linked data
Apply the candidate to the adjustment rule to adjust the similarity
And a similarity adjusting means. In this configuration
According to the comparison, the comparison should be recognized first by the user.
The target pattern candidates are easily recognized, and the recognition rate is further improved.

【0007】この場合、請求項2の発明のように、ユー
ザーによる入力操作によって優先認識情報を入力させる
ように構成したり、また、請求項3の発明のように、優
先認識情報を記憶する記憶手段を備えるように構成した
りすることが好ましい。このように構成すると、ユーザ
ーの希望に合致するように認識率を向上させることがで
きる。
In this case, as in the invention of claim 2, it is configured to input the priority recognition information by an input operation by the user, and, like the invention of claim 3, a memory for storing the priority recognition information. It is preferable that the device is provided with the means. With this configuration, the recognition rate can be improved so as to match the user's wishes.

【0008】請求項4の発明においては、現在位置を検
出する位置検出手段を備え、優先認識情報として上記検
出した現在位置を入力するように構成した。この構成に
よれば、自動的に認識率が向上するから、ユーザーの使
い勝手をより一層向上させることができる。
According to the fourth aspect of the invention, a position detecting means for detecting the current position is provided, and the detected current position is inputted as the priority recognition information. According to this configuration, the recognition rate is automatically improved, so that the usability for the user can be further improved.

【0009】[0009]

【0010】請求項の発明によれば、学習処理によっ
て調整ルールを変更したり増減したりするように構成し
たので、認識率が自動的に向上するようになる。そし
て、この場合、請求項の発明のように、認識履歴に基
づいて調整ルールを変更したり増減したりするように構
成することが好ましい。このように構成すると、認識率
が一層向上する。
According to the fifth aspect of the present invention, since the adjustment rule is changed or increased or decreased by the learning process, the recognition rate is automatically improved. In this case, as in the invention of claim 6 is preferably configured to increased or decreased to change the adjustment rule based on the recognition history. With this configuration, the recognition rate is further improved.

【0011】[0011]

【発明の実施の形態】以下、本発明をカーナビゲーショ
ンシステムに適用した一実施例について図面を参照しな
がら説明する。まず、図2はカーナビゲーションシステ
ム1の全体構成を概略的に示すブロック図である。この
図2に示すように、カーナビゲーションシステム1は、
音声認識装置2とナビゲーション装置3とを備えて構成
されている。上記音声認識装置2には、マイク4とPT
T(Push-To-Talk)スイッチ5とスピーカ6とが接続さ
れている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to a car navigation system will be described below with reference to the drawings. First, FIG. 2 is a block diagram schematically showing the overall configuration of the car navigation system 1. As shown in FIG. 2, the car navigation system 1
It is configured to include a voice recognition device 2 and a navigation device 3. The voice recognition device 2 includes a microphone 4 and a PT.
The T (Push-To-Talk) switch 5 and the speaker 6 are connected.

【0012】また、ナビゲーション装置3の具体的構成
を、図3に示す。この図3において、ナビゲーション装
置3の制御回路7は、マイクロコンピュータを含んで構
成されており、ナビゲーション装置3の運転全般を制御
する機能を有している。この制御回路7には、位置検出
器8、地図データ入力器9、操作スイッチ群10、外部
メモリ11、表示装置12及びリモコンセンサ13が接
続されている。更に、制御回路7には、上記音声入力装
置2(の制御部14(図4参照))が接続されている。
Further, a specific configuration of the navigation device 3 is shown in FIG. In FIG. 3, the control circuit 7 of the navigation device 3 is configured to include a microcomputer and has a function of controlling the overall operation of the navigation device 3. A position detector 8, a map data input device 9, an operation switch group 10, an external memory 11, a display device 12, and a remote control sensor 13 are connected to the control circuit 7. Further, the control circuit 7 is connected to (the control unit 14 (see FIG. 4) of) the voice input device 2 described above.

【0013】ここで、位置検出器8は、地磁気センサや
ジャイロスコープや距離センサやGPS受信機(いずれ
も図示しない)等を組み合わせたものまたはその一部で
構成されている。この位置検出器8は、本実施例のカー
ナビゲーションシステム1を搭載した車両の現在位置を
検出して現在位置検出信号を出力するように構成されて
いる。この場合、位置検出器8が位置検出手段及び情報
入力手段を構成している。また、地図データ入力器9
は、地図データやマップマッチングデータ等を入力する
ための装置である。上記地図データ等のデータは、例え
ばCD−ROMなどからなる記録媒体に記録されてい
る。
The position detector 8 is composed of a combination of a geomagnetic sensor, a gyroscope, a distance sensor, a GPS receiver (none of which is shown), or a part thereof. The position detector 8 is configured to detect the current position of a vehicle equipped with the car navigation system 1 of this embodiment and output a current position detection signal. In this case, the position detector 8 constitutes the position detecting means and the information inputting means. Also, the map data input device 9
Is a device for inputting map data, map matching data, and the like. The data such as the map data is recorded on a recording medium such as a CD-ROM.

【0014】更に、表示装置12は、例えば液晶ディス
プレイ等で構成されており、カラー表示が可能で地図等
を明確に表示できるものである。操作スイッチ群10
は、上記表示装置12の画面の上面に設けられたタッチ
スイッチ(タッチパネル)と、上記画面の周辺部に設け
られたメカニカルなプッシュスイッチ等から構成されて
いる。リモコンセンサ13は、ユーザーにより操作され
るリモコン13aから送信された送信信号を受信する受
信機である。そして、制御回路7は、ユーザーが操作ス
イッチ群10やリモコン13aを操作することにより目
的地を設定したときに、現在位置からその目的地までの
最適経路を自動的に選択設定する機能や、現在位置を地
図上に位置付けるマップマッチング処理を実行する機能
等を有している。
Further, the display device 12 is composed of, for example, a liquid crystal display or the like, and can display in color so that a map or the like can be clearly displayed. Operation switch group 10
Is composed of a touch switch (touch panel) provided on the upper surface of the screen of the display device 12, a mechanical push switch provided on the peripheral portion of the screen, and the like. The remote controller sensor 13 is a receiver that receives a transmission signal transmitted from the remote controller 13a operated by the user. Then, the control circuit 7 automatically selects and sets the optimum route from the current position to the destination when the user sets the destination by operating the operation switch group 10 or the remote controller 13a. It has a function of executing a map matching process for locating a position on a map.

【0015】また、上記目的地等を設定する場合に、ユ
ーザーは、操作スイッチ群10やリモコン13aを操作
する代わりに、音声認識装置2を用いて音声で入力する
ことが可能に構成されている。以下、上記音声認識装置
2について、図4を参照して説明する。
When setting the destination and the like, the user can use the voice recognition device 2 to input a voice instead of operating the operation switch group 10 and the remote controller 13a. . Hereinafter, the voice recognition device 2 will be described with reference to FIG.

【0016】図4に示すように、音声認識装置2は、制
御部14、音声入力部15、音声認識部16及び音声合
成部17から構成されている。ここで、制御部14は、
音声認識装置2の動作全般を制御する機能を有してい
る。上記制御部14は、上記ナビゲーション装置3の制
御回路7に接続されており、これにより、制御回路7と
の間でデータの授受を行うように構成されている。
As shown in FIG. 4, the voice recognition device 2 comprises a control unit 14, a voice input unit 15, a voice recognition unit 16 and a voice synthesis unit 17. Here, the control unit 14
It has a function of controlling the overall operation of the voice recognition device 2. The control unit 14 is connected to the control circuit 7 of the navigation device 3, and is configured to exchange data with the control circuit 7.

【0017】また、音声入力部15は、ユーザーが発し
た音声をマイク4を介して入力し、音声データ(例えば
デジタルデータ)を音声認識部16へ出力するように構
成されている。この場合、音声入力部15は、ユーザー
がPTTスイッチ8を押し下げ操作している間だけ、音
声データを音声認識部16へ出力するように構成されて
いる。即ち、PTTスイッチ8が操作されている間だ
け、ユーザーが発した音声の音声認識処理が実行される
ように構成されている。
The voice input unit 15 is also configured to input a voice uttered by a user through the microphone 4 and output voice data (eg, digital data) to the voice recognition unit 16. In this case, the voice input unit 15 is configured to output the voice data to the voice recognition unit 16 only while the user depresses the PTT switch 8. That is, the voice recognition processing of the voice uttered by the user is executed only while the PTT switch 8 is operated.

【0018】そして、音声認識部16は、上記音声入力
15から与えられた音声データ(入力した音声)を制
御部14からの指示に従って音声認識処理を行い、その
音声認識結果を制御部14へ出力するように構成されて
いる。上記音声認識部16は、具体的には、図1に示す
ように、照合部18及び辞書部19から構成されてい
る。上記辞書部19には、認識対象語彙及び認識対象語
彙のツリー構造(周知のデータ構造)から構成された辞
書データが記憶されている。ここで、認識対象語彙、即
ち、比較対象パターン候補のデータには、図5に示すよ
うに、都道府県名、市区町村名、認識語彙、位置、種別
及びランクのデータ(いわゆる属性データ)が付加され
ている。この図5には、認識対象語彙として2つの語彙
「東京ディズニーランド」及び「刈谷郵便局」につい
て、各属性データを示す。そして、辞書データ内の他の
認識対象語彙についても、ほぼ同様にして各属性データ
が付加されている。
Then, the voice recognition unit 16 performs voice recognition processing on the voice data (input voice) given from the voice input unit 15 according to an instruction from the control unit 14, and outputs the voice recognition result to the control unit 14. It is configured to output. The voice recognition unit 16 is specifically composed of a collation unit 18 and a dictionary unit 19, as shown in FIG. The dictionary unit 19 stores dictionary data composed of a recognition target vocabulary and a tree structure (known data structure) of the recognition target vocabulary. Here, in the recognition target vocabulary, that is, the data of the comparison target pattern candidate, as shown in FIG. 5, data of prefectures, municipalities, recognition vocabularies, positions, types and ranks (so-called attribute data) is included. Has been added. FIG. 5 shows attribute data for two vocabularies “Tokyo Disneyland” and “Kariya Post Office” as recognition target vocabularies. The attribute data is added to other recognition target words in the dictionary data in substantially the same manner.

【0019】また、照合部18は、音声入力部15から
与えられた音声データに対して、上記辞書部19に記憶
されている辞書データを用いて照合(認識)を行うよう
に構成されている。この場合、まず、音声データと辞書
データ内の複数の比較対象パターン候補とを比較して類
似度(即ち、両者の一致度合いを計算した値)を計算す
る。尚、この類似度を計算する処理は、既に知られてい
る照合処理用の制御プログラム(アルゴリズム)を使用
して実行されるようになっている。
The collating unit 18 is also configured to collate (recognize) the voice data given from the voice input unit 15 by using the dictionary data stored in the dictionary unit 19. . In this case, first, the voice data and the plurality of comparison target pattern candidates in the dictionary data are compared to calculate the similarity (that is, a value obtained by calculating the degree of coincidence between the two). The process of calculating the degree of similarity is executed using a control program (algorithm) for collation process that is already known.

【0020】続いて、優先認識情報である例えば現在位
置(前記位置検出器8により検出された現在位置)と、
制御部14内に設けられた記憶部20(図1参照)に記
憶されている調整ルールに基づいて上記類似度の値を増
減する調整を行う。そして、照合部18は、この調整し
た類似度が最も高い比較対象パターン候補(認識対象語
彙)を、認識結果として制御部14へ出力するように構
成されている。この場合、照合部18が類似度調整手段
を構成している。尚、上記類似度を調整する処理の具体
的内容については、後述する。
Next, for example, the current position (the current position detected by the position detector 8) which is the priority recognition information,
Adjustment is performed to increase or decrease the value of the similarity based on the adjustment rule stored in the storage unit 20 (see FIG. 1) provided in the control unit 14. Then, the matching unit 18 is configured to output the comparison target pattern candidate (recognition target vocabulary) having the highest adjusted similarity to the control unit 14 as a recognition result. In this case, the collating unit 18 constitutes a similarity adjusting unit. The specific content of the process of adjusting the degree of similarity will be described later.

【0021】また、制御部14の記憶部20に記憶され
ている調整ルールは、予めメーカー側で設定しておいた
標準的なルールと、ユーザーが入力するルールとがあ
り、これらルールの内容については後述する。そして、
ユーザーがルールを入力する場合は、ナビゲーション装
置3の操作スイッチ群10やリモコン13aを操作する
ことにより、所望のルールを入力するように構成されて
いる。尚、ユーザーがルールを入力する場合、音声でル
ールを入力するように構成しても良い。
The adjustment rules stored in the storage unit 20 of the control unit 14 include standard rules preset by the manufacturer and rules entered by the user. Will be described later. And
When the user inputs a rule, the user operates the operation switch group 10 and the remote controller 13a of the navigation device 3 to input a desired rule. When the user inputs a rule, the rule may be input by voice.

【0022】一方、音声合成部17は、発声させたい音
声を表わすデータ(例えば仮名文字等から構成されたテ
キストデータ)を制御部14から受けると、この音声デ
ータから音声を合成するように構成されている。そし
て、音声合成部17は、上記合成した音声をスピーカ6
から出力して発声させるように構成されている。
On the other hand, when the voice synthesizing unit 17 receives from the control unit 14 data (for example, text data composed of kana characters) representing a voice to be uttered, it is configured to synthesize a voice from this voice data. ing. Then, the voice synthesizing unit 17 outputs the synthesized voice to the speaker 6
It is configured to be output from and uttered.

【0023】次に、上記構成の作用、具体的には、目的
地の設定をユーザーが音声で行う場合の動作について、
図6及び図7も参照して説明する。図7のフローチャー
トは、音声認識装置2を動作させる制御プログラムのう
ちの音声認識処理を実行する制御部分の内容を示してい
る。
Next, the operation of the above configuration, specifically, the operation when the user sets the destination by voice,
The description will be made with reference to FIGS. 6 and 7. The flowchart of FIG. 7 shows the contents of the control portion that executes the voice recognition processing of the control program that operates the voice recognition device 2.

【0024】まず、ユーザーは、PTTスイッチ5を押
しながら、設定したい目的地の名称(例えば「東京ディ
ズニーランド」)をマイク4に向かって発声する。する
と、音声認識装置2の音声入力部15は、ユーザーが発
した音声をマイク4を介して入力し、音声データを音声
認識部16へ出力する。これにより、音声認識装置2内
に音声入力が取得される(図7のステップS1)。
First, while pressing the PTT switch 5, the user speaks into the microphone 4 the name of the destination to be set (for example, "Tokyo Disneyland"). Then, the voice input unit 15 of the voice recognition device 2 inputs the voice uttered by the user through the microphone 4 and outputs the voice data to the voice recognition unit 16. As a result, the voice input is acquired in the voice recognition device 2 (step S1 in FIG. 7).

【0025】続いて、音声認識装置2の音声認識部16
は、優先認識情報として例えば現在位置を示す情報を取
得する(ステップS2)。この場合、音声認識部16
は、ナビゲーション装置3の位置検出器8により検出さ
れた現在位置を示す情報(現在位置情報)を、制御回路
7と音声認識装置2の制御部14とを介して受けるよう
に構成されている。また、ここで取得される現在位置を
示す情報は、例えば「愛知県刈谷市」というように現在
位置が属している所定の地域を示すデータである。尚、
現在位置を示す情報として、例えば現在位置の座標(経
度と緯度)も一緒に取得しておくように構成することが
好ましい。
Next, the voice recognition unit 16 of the voice recognition device 2
Acquires, for example, information indicating the current position as the priority recognition information (step S2). In this case, the voice recognition unit 16
Is configured to receive information (current position information) indicating the current position detected by the position detector 8 of the navigation device 3 via the control circuit 7 and the control unit 14 of the voice recognition device 2. The information indicating the current position acquired here is data indicating a predetermined area to which the current position belongs, such as “Kariya City, Aichi Prefecture”. still,
As the information indicating the current position, for example, it is preferable that the coordinates of the current position (longitude and latitude) are also acquired together.

【0026】この後、音声認識部16の照合部18は、
音声入力部15から与えられた音声データに対して、辞
書部19に記憶されている辞書データを用いてデータ照
合(認識)を行う(ステップS3)。ここでは、音声デ
ータと辞書データ内の複数の比較対象パターン候補とを
比較して、類似度(即ち、一致度合い)を計算する。今
の場合、ユーザーが発声した音声である例えば「東京デ
ィズニーランド」に対して、類似度が高い順に、次の3
つの認識候補が抽出されたとする。第1の候補は、「東
京○○郵便局」であり、これはランクがBで類似度が1
00点であったとする。第2の候補は、「東京ディズニ
ーランド」であり、これはランクがAで類似度が95点
であったとする。第3の候補は、[東京○○ランド」で
あり、これはランクがCで類似度が90点であったとす
る。
After that, the collation unit 18 of the voice recognition unit 16
Data matching (recognition) is performed on the voice data provided from the voice input unit 15 using the dictionary data stored in the dictionary unit 19 (step S3). Here, the degree of similarity (that is, the degree of coincidence) is calculated by comparing the voice data and the plurality of comparison target pattern candidates in the dictionary data. In this case, for the voice uttered by the user, for example, "Tokyo Disneyland", the following 3
Assume that one recognition candidate is extracted. The first candidate is "Tokyo XX Post Office", which has a rank of B and a similarity of 1
It is assumed that the score is 00. The second candidate is “Tokyo Disneyland”, which is ranked A and has a similarity of 95 points. The third candidate is "Tokyo XX Land", which is ranked C and has a similarity of 90 points.

【0027】ここで、従来構成の音声認識装置では、上
記3つの候補の中で、類似度が最も高いもの、即ち、
「東京○○郵便局」を認識結果として出力するようにな
っている。これに対して、本実施例の音声認識装置2に
おいては、その照合部18が、現在位置のデータと、制
御部14の記憶部20に記憶されている調整ルールとに
基づいて上記各類似度の値を増減する調整を行うように
構成されている(ステップS4)。
Here, in the conventional speech recognition apparatus, the one having the highest degree of similarity among the above three candidates, that is,
“Tokyo Post Office” is output as a recognition result. On the other hand, in the voice recognition device 2 of the present embodiment, the matching unit 18 uses the data of the current position and the adjustment rule stored in the storage unit 20 of the control unit 14 to calculate the similarity. Is configured to increase or decrease the value of (step S4).

【0028】具体的には、図6の表に示すように、例え
ば3つの条件を考慮して類似度の値を調整する。ここ
で、上記3つの条件のうちの第1の条件は、認識候補語
の存在位置が隣接県外であるか(それとも同一市区町村
であるか)、または、認識候補語の存在位置と現在位置
との間の距離が○km以上であるか(それとも○km以
内であるか)を判断している。この場合、○kmは予め
決められた設定値である。第2の条件は、認識候補語の
種別(ジャンル)が何であるか、例えば遊園地である
か、郵便局であるか、………を判断している。第3の条
件は、認識候補語のランクがA、B、Cのいずれである
かを判断している。ここで、ランクAは著名な施設であ
ることを表わし、ランクBは中程度に知られている施設
であることを表わし、ランクCはマイナーな施設(その
施設がある地元の人しか知らない施設)であることを表
わしている。
Specifically, as shown in the table of FIG. 6, the value of the degree of similarity is adjusted in consideration of, for example, three conditions. Here, the first condition of the above three conditions is whether the recognition candidate word exists outside the adjacent prefecture (or is it in the same municipality), or the recognition candidate word exists and the current position. It is determined whether or not the distance between and is ∘km or more (or is within ∘km). In this case, ∘km is a preset setting value. The second condition is to determine what kind (genre) of the recognition candidate word is, for example, an amusement park, a post office, ... The third condition is to judge whether the rank of the recognition candidate word is A, B, or C. Here, rank A represents a well-known facility, rank B represents a moderately known facility, and rank C represents a minor facility (a facility known only to the locals who have the facility). ) Is represented.

【0029】そして、照合部18は、上記した3つの条
件を考慮しながら、抽出した認識候補の類似度の値を、
図6の表の右端の項目(処置)で示すように調整するよ
うに構成されている。具体的には、隣接県外で、遊園地
で、ランクAであれば、類似度を10だけ加算している
(図6のNo.1参照)。また、隣接県外で、遊園地
で、ランクCであれば、類似度を10だけ減算している
(図6のNo.2参照)。また、隣接県外で、郵便局
で、ランクBであれば、類似度を5だけ減算している
(図6のNo.3参照)。また、同一市区町村で、郵便
局で、ランクBであれば、類似度を5だけ加算している
(図6のNo.4参照)。そして、この図6の表のよう
に類似度を調整するための調整ルールを、制御部14の
記憶部20内に予め記憶しておくように構成している。
Then, the matching unit 18 determines the similarity value of the extracted recognition candidates while taking the above three conditions into consideration.
The adjustment is configured as shown in the item (treatment) at the right end of the table in FIG. Specifically, if it is rank A in an amusement park outside the adjacent prefecture, 10 is added to the similarity (see No. 1 in FIG. 6). If the rank is C in an amusement park outside the adjacent prefecture, 10 is subtracted from the similarity (see No. 2 in FIG. 6). If the rank is B at a post office outside the adjacent prefecture, the similarity is subtracted by 5 (see No. 3 in FIG. 6). If the rank is B at the post office in the same municipality, 5 is added to the similarity (see No. 4 in FIG. 6). The adjustment rule for adjusting the degree of similarity as shown in the table of FIG. 6 is configured to be stored in the storage unit 20 of the control unit 14 in advance.

【0030】ここで、上述したような調整ルールを設定
した理由について、簡単に説明する。まず、「東京ディ
ズニーランド」のような著名(有名)な施設(ランク
A)は、全国どこからでも目的地として設定される可能
性が高いため、現在位置に関わりなく、認識され易くす
る必要がある。このため、類似度を高くするように調整
している。これに対して、「○○保健所」や「○○郵便
局」といった生活密着型のローカルな施設(ランクB)
は、地域住民の利用が圧倒的であるから、現在位置に近
いとき(例えば同一市区町村内であるとき)には、その
類似度を高く調整して認識され易くしている。一方、上
記ローカルな施設が現在位置から遠く離れているとき
(隣接県外であるとき)には、その類似度を低く調整し
て認識され難くしている。
Here, the reason why the above adjustment rule is set will be briefly described. First, a well-known (famous) facility (rank A) such as "Tokyo Disneyland" is likely to be set as a destination from anywhere in the country, so it is necessary to make it easy to be recognized regardless of the current location. Therefore, the degree of similarity is adjusted to be high. On the other hand, local facilities closely related to daily life such as "XX public health center" and "XX post office" (rank B)
Since the use of local residents is overwhelming, when the current position is close (for example, in the same municipality), the degree of similarity is adjusted to be high to facilitate recognition. On the other hand, when the local facility is far away from the current position (when it is outside the adjacent prefecture), the similarity is adjusted to be low so that it is difficult to be recognized.

【0031】この場合、ユーザーは、行ったこともない
地域の情報(施設の名前等)はほとんど知らないから、
そのような地域の施設は認識されない方が好ましく、上
記調整処理により上記地域の施設は認識され難くなるか
ら、ユーザーの使用感に沿った好ましいものとなる。一
方、ユーザーは、著名な施設や地元の情報(施設の名前
等)は詳しく知っているから、そのような著名施設や地
元施設は認識された方が好ましく、上記調整処理により
上記著名施設や地元施設は認識され易くなるから、ユー
ザーの使用感に沿った好ましいものとなるのである。
In this case, since the user hardly knows information about the area that has never been visited (name of facility, etc.),
It is preferable that the facility in such a region is not recognized, and the facility in the region becomes difficult to be recognized by the adjustment processing, which is preferable in accordance with the usability of the user. On the other hand, since the user knows well-known facilities and local information (names of facilities, etc.) in detail, it is preferable that such well-known facilities and local facilities are recognized. The facility is easy to be recognized, which is preferable according to the user's feeling of use.

【0032】次に、前述したようにして各認識候補語の
類似度が調整されると、上記3つの認識候補語のうちの
「東京ディズニーランド」の類似度が最も高くなる。こ
の結果、「東京ディズニーランド」を認識結果として出
力するようになっている(ステップS5)。
Next, when the similarity of each recognition candidate word is adjusted as described above, the similarity of "Tokyo Disneyland" among the above three recognition candidate words becomes the highest. As a result, "Tokyo Disneyland" is output as the recognition result (step S5).

【0033】さて、上述した類似度の調整においては、
郵便局の類似度が減点されることにより、郵便局が認識
され難くなるように調整された。これに対して、現在位
置が愛知県刈谷市である場合において、ユーザーが「刈
谷郵便局」と発声したときには、認識候補としての「刈
谷郵便局」の類似度が加算されるように調整される。こ
のため、「刈谷郵便局」が認識結果として認識され易く
なり、認識率が向上するから、ユーザーの使用感が向上
するのである。
Now, in the above-mentioned adjustment of the degree of similarity,
The post office's similarity was reduced, so that the post office was adjusted to be difficult to recognize. On the other hand, when the current position is Kariya city, Aichi prefecture, when the user says "Kariya post office", the similarity of "Kariya post office" as a recognition candidate is adjusted to be added. . Therefore, "Kariya Post Office" is easily recognized as a recognition result, and the recognition rate is improved, so that the user's feeling of use is improved.

【0034】このような構成の本実施例によれば、優先
認識情報として例えば現在位置を入力し、この現在位置
と記憶部20に記憶されている調整ルールに基づいて認
識候補語(比較対象パターン候補)の類似度を調整する
ように構成したので、ユーザーにとって優先的に認識さ
れるべき認識候補語の類似度が高くなり、その認識候補
語が認識され易くなる。これにより、音声認識の認識率
が向上し、ユーザーが不快に感ずることを極力少なくす
ることができる。
According to this embodiment having such a configuration, for example, the current position is input as the priority recognition information, and the recognition candidate word (comparison target pattern) is calculated based on this current position and the adjustment rule stored in the storage unit 20. Since the similarity of the (candidate) is adjusted, the similarity of the recognition candidate word which should be preferentially recognized by the user is increased, and the recognition candidate word is easily recognized. As a result, the recognition rate of voice recognition is improved, and it is possible to minimize discomfort to the user.

【0035】また、上記実施例では、現在位置を検出す
る位置検出器8を備え、優先認識情報として上記検出し
た現在位置を入力するように構成した。この構成によれ
ば、ユーザーが行ったこともないような遠隔地の施設で
あり、且つ、あまり知名度が高くない施設が認識される
ことはほとんどなくなると共に、自動車が移動したとき
でも自動的に認識率が向上するから、ユーザーの使用感
をより一層向上させることができる。
Further, in the above embodiment, the position detector 8 for detecting the current position is provided, and the detected current position is inputted as the priority recognition information. With this configuration, it is almost impossible to recognize a facility in a remote area that has never been visited by a user, and the facility is not well known, and it is automatically recognized even when the car moves. Since the rate is improved, the usability of the user can be further improved.

【0036】更に、上記実施例では、認識候補語(比較
対象パターン候補)に、都道府県名、市区町村名、位
置、種別及びランクのデータを付加すると共に、この付
加したデータと現在位置(優先認識情報)と調整ルール
に基づいて類似度を調整するように構成した。これによ
り、類似度をより一層細かく調整できるから、認識率を
より一層向上させることができる。
Further, in the above-mentioned embodiment, the data of the prefecture, the name of the municipality, the position, the type and the rank are added to the recognition candidate word (the pattern candidate for comparison), and the added data and the current position ( The similarity is adjusted based on the priority recognition information) and the adjustment rule. As a result, the degree of similarity can be adjusted more finely, and the recognition rate can be further improved.

【0037】尚、上記実施例において、認識候補語(比
較対象パターン候補)に、都道府県名、市区町村名、位
置、種別またはランクのうちの少なくとも1つのデータ
を付加するだけの構成としても良いし、また、それらの
うちの適当な複数のデータを組み合わせたデータを付加
するように構成しても良い。
In the above embodiment, the recognition candidate word (comparison target pattern candidate) may have a structure in which at least one of the prefecture name, the city name, the position, the type and the rank is added. Alternatively, it may be configured to add the data obtained by combining a plurality of appropriate data among them.

【0038】また、上記実施例では、優先認識情報とし
て、位置検出器8により検出した現在位置の情報を入力
するように構成したが、これに限られるものではなく、
例えばユーザーによる入力操作によって、ユーザーの居
住所やユーザーが車両を主として使用する使用場所(使
用エリア)等の情報を入力させるように構成しても良
い。この場合、ユーザーの居住所や使用場所等の情報
(優先認識情報)を記憶手段に記憶させるように構成す
ることが好ましい。この記憶手段としては、EEPRO
M等の不揮発性メモリやバックアップ機能付きRAMを
使用すると良い。また、居住所や使用場所等の情報を入
力するに当たっては、ナビゲーション装置3の操作スイ
ッチ群10やリモコン13a等を操作したり、音声で入
力したりすれば良い。そして、居住所や使用場所等の情
報を優先認識情報とした場合には、ユーザーが旅行等で
遠方へ出かけているようなときでも、自宅方面の施設の
認識率が向上する。
Further, in the above embodiment, the information of the current position detected by the position detector 8 is inputted as the priority recognition information, but the present invention is not limited to this.
For example, it may be configured such that information such as a residence of the user or a use place (use area) where the user mainly uses the vehicle is input by an input operation by the user. In this case, it is preferable to store the information (priority recognition information) such as the place of residence and the place of use of the user in the storage unit. As this storage means, EEPRO
A non-volatile memory such as M or a RAM with a backup function may be used. When inputting information such as a place of residence or a place of use, the operation switch group 10 of the navigation device 3, the remote controller 13a, or the like may be operated or input by voice. When the information such as the place of residence and the place of use is used as the priority recognition information, the recognition rate of the facility toward the home is improved even when the user travels far away.

【0039】更に、上記実施例では、記憶部20に予め
記憶されている調整ルールを用いて類似度の調整を行う
ように構成したが、これに限られるものではなく、ユー
ザーが希望する調整ルールを記憶部20に記憶(登録)
させて、この調整ルールを用いるように構成しても良
い。この場合、ユーザーは、ナビゲーション装置3の操
作スイッチ群10やリモコン13a等をユーザーが操作
することにより、希望する調整ルールを制御回路7を介
して音声認識装置2の制御部14の記憶部20に記憶
(登録)させるように構成すれば良い。また、ユーザー
が希望する調整ルールを音声で登録させるように構成し
ても良い。そして、このようにユーザーが希望する調整
ルールを自由に登録可能に構成すると、認識率が一層向
上する。
Further, in the above embodiment, the adjustment rule stored in advance in the storage unit 20 is used to adjust the degree of similarity. However, the present invention is not limited to this, and the adjustment rule desired by the user may be used. Is stored (registered) in the storage unit 20.
Then, the adjustment rule may be used. In this case, the user operates the operation switch group 10 and the remote controller 13a of the navigation device 3 to store the desired adjustment rule in the storage unit 20 of the control unit 14 of the voice recognition device 2 via the control circuit 7. It may be configured so as to be stored (registered). Further, the adjustment rule desired by the user may be registered by voice. When the adjustment rule desired by the user can be freely registered in this way, the recognition rate is further improved.

【0040】また、上記実施例が、例えば「地名+施設
名」を音声で入力して目標物を特定するような音声認識
システムであるとした場合に、現在位置の周辺の施設
や、ユーザーが登録した住所や場所の周辺の施設につい
ては、「施設名」だけを音声で入力するだけで、目標物
を特定できるような調整ルールを作成し、このルールを
記憶部20に登録しておくことが好ましい。このように
構成すると、ユーザーにとって、より一層使い勝手が良
くなる。
In the case where the above embodiment is a voice recognition system in which, for example, "place name + facility name" is input by voice to specify a target object, the facility around the current position and the user are For facilities around the registered address and place, create an adjustment rule that allows you to specify the target object by simply inputting "facility name" by voice, and register this rule in the storage unit 20. Is preferred. With this configuration, the usability is further improved for the user.

【0041】更にまた、学習処理によって調整ルールを
変更したり増減したりするように構成することも好まし
い構成である。この学習処理の構成の一例として、認識
履歴(例えば各施設名が過去において実際に認識された
認識回数)を記憶しておき、この認識履歴に基づいて調
整ルールを変更したり調整ルールを増減したりする構
成、例えば認識回数の多い施設名ほど認識され易くなる
ように調整ルールを変える構成が考えられる。そして、
このように構成すると、認識率が自動的に向上すると共
に、認識率がより一層向上する。
Furthermore, it is also a preferable configuration to change or increase or decrease the adjustment rule by the learning process. As an example of the configuration of this learning process, a recognition history (for example, the number of times each facility name is actually recognized in the past) is stored, and the adjustment rules can be changed or the adjustment rules can be increased or decreased based on this recognition history. It is conceivable that the adjustment rule is changed so that the facility name that is recognized more frequently is more easily recognized. And
With this configuration, the recognition rate is automatically improved, and the recognition rate is further improved.

【0042】尚、上記実施例では、本発明の音声認識装
置2をカーナビゲーションシステム1に適用したが、こ
れに限られるものではなく、例えば車載用空調装置(い
わゆるカーエアコン)、カーオーディオ機器、屋内用空
調装置、携帯型ナビゲーション装置等に適用しても良
い。また、パワーウインドウの開閉操作の指令や、ミラ
ーの反射角度の設定操作の指令等を音声で行うように構
成する場合が考えられ、このような構成に本発明の音声
認識装置を適用しても良い。
Although the voice recognition device 2 of the present invention is applied to the car navigation system 1 in the above embodiment, the present invention is not limited to this. For example, a vehicle air conditioner (so-called car air conditioner), a car audio device, It may be applied to an indoor air conditioner, a portable navigation device, or the like. Further, it is conceivable that the power window opening / closing operation command, the mirror reflection angle setting operation command, or the like may be configured to be performed by voice. Even if the voice recognition device of the present invention is applied to such a configuration good.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す音声認識部のブロック
FIG. 1 is a block diagram of a voice recognition unit showing an embodiment of the present invention.

【図2】カーナビゲーションシステムのブロック図FIG. 2 is a block diagram of a car navigation system.

【図3】ナビゲーション装置のブロック図FIG. 3 is a block diagram of a navigation device

【図4】音声認識装置のブロック図FIG. 4 is a block diagram of a voice recognition device.

【図5】辞書データに登録されている認識語彙のデータ
構造を示す図
FIG. 5 is a diagram showing a data structure of a recognized vocabulary registered in dictionary data.

【図6】調整ルールの一例を説明するための表を示す図FIG. 6 is a diagram showing a table for explaining an example of adjustment rules.

【図7】フローチャートFIG. 7: Flow chart

【符号の説明】[Explanation of symbols]

1はカーナビゲーションシステム、2は音声認識装置、
3はナビゲーション装置、4はマイク、5はPTTスイ
ッチ、7は制御回路、8は位置検出器(情報入力手段、
位置検出手段)、9は地図データ入力器、10は操作ス
イッチ群、12は表示装置、14は制御部、15は音声
入力部、16は音声認識部、18は照合部(類似度調整
手段)、19は辞書部、20は記憶部を示す。
1 is a car navigation system, 2 is a voice recognition device,
3 is a navigation device, 4 is a microphone, 5 is a PTT switch, 7 is a control circuit, 8 is a position detector (information input means,
(Position detection means), 9 is a map data input device, 10 is an operation switch group, 12 is a display device, 14 is a control unit, 15 is a voice input unit, 16 is a voice recognition unit, and 18 is a collation unit (similarity adjustment unit). , 19 is a dictionary unit, and 20 is a storage unit.

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力された音声と、都道府県名、市区町
村名、位置、種別およびランクのデータが付加されてい
複数の比較対象パターン候補とを比較して類似度を計
算し、この類似度が高いものを認識結果とするように構
成された音声認識装置において、 所定の地点や所定の地域を示すデータからなる優先認識
情報を入力する情報入力手段と、前記優先認識情報と前記複数の比較対象パターン候補に
付加された位置情報を比較した比較結果、前記複数の比
較対象パターン候補に付加された種別およびランクとを
用いて、類似度を調整する調整ルールと、 前記優先認識情報と、前記都道府県名、市区町村名、位
置、種別およびランクのデータが付加されている複数の
比較対象パターン候補を前記調整ルールに適用して前記
類似度を調整する類似度調整手段とを備えたことを特徴
とする音声認識装置。
[Claim 1] Input voice , prefecture name, city
Village name, location, type and rank data are added.
Compared plurality of the comparison target pattern candidates to calculate the similarity that, in the speech recognition device configured to be the result recognize what a high degree of similarity, the data indicating the predetermined point or a predetermined local Information input means for inputting priority recognition information consisting of, the priority recognition information and the plurality of comparison target pattern candidates.
The comparison result obtained by comparing the added position information, the plurality of ratios
The type and rank added to the comparison target pattern
Using the adjustment rule to adjust the similarity, the priority recognition information, the prefecture name, city name, place
Location, type, and rank data
Speech recognition apparatus characterized by a comparison pattern candidate example Bei the similarity adjusting means for adjusting the degree of similarity is applied to the adjustment rule.
【請求項2】 前記情報入力手段は、ユーザーによる入
力操作に応じて前記優先認識情報が入力されるように構
成されていることを特徴とする請求項1記載の音声認識
装置。
2. The voice recognition device according to claim 1, wherein the information input unit is configured to input the priority recognition information in response to an input operation by a user.
【請求項3】 前記優先認識情報を記憶する記憶手段を
備えたことを特徴とする請求項2記載の音声認識装置
3. The voice recognition device according to claim 2, further comprising a storage unit that stores the priority recognition information .
【請求項4】 現在位置を検出する位置検出手段を備
え、 前記情報入力手段は、前記優先認識情報として前記現在
位置を入力するように構成されていることを特徴とする
請求項1記載の音声認識装置。
4. The voice according to claim 1, further comprising position detecting means for detecting a current position, wherein the information input means is configured to input the current position as the priority recognition information. Recognition device.
【請求項5】 学習処理によって前記調整ルールを変更
したり増減したりするように構成されていることを特徴
とする請求項1ないし4のいずれかに記載の音声認識装
置。
5. The adjustment rule is changed by a learning process.
The voice recognition device according to claim 1, wherein the voice recognition device is configured to increase or decrease .
【請求項6】 認識履歴に基づいて前記調整ルールを変
更したり増減したりするように構成されていることを特
徴とする請求項記載の音声認識装置。
6. The voice recognition device according to claim 5, wherein the adjustment rule is changed or increased / decreased based on a recognition history .
JP03581598A 1998-02-18 1998-02-18 Voice recognition device Expired - Fee Related JP3500948B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03581598A JP3500948B2 (en) 1998-02-18 1998-02-18 Voice recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03581598A JP3500948B2 (en) 1998-02-18 1998-02-18 Voice recognition device

Publications (2)

Publication Number Publication Date
JPH11231889A JPH11231889A (en) 1999-08-27
JP3500948B2 true JP3500948B2 (en) 2004-02-23

Family

ID=12452441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03581598A Expired - Fee Related JP3500948B2 (en) 1998-02-18 1998-02-18 Voice recognition device

Country Status (1)

Country Link
JP (1) JP3500948B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3760755B2 (en) 2000-10-11 2006-03-29 日産自動車株式会社 Voice input device
JP4040573B2 (en) 2003-12-12 2008-01-30 キヤノン株式会社 Speech recognition apparatus and method
JP4665459B2 (en) * 2004-08-25 2011-04-06 日産自動車株式会社 Navigation device
JP4804052B2 (en) 2005-07-08 2011-10-26 アルパイン株式会社 Voice recognition device, navigation device provided with voice recognition device, and voice recognition method of voice recognition device
US8781837B2 (en) 2006-03-23 2014-07-15 Nec Corporation Speech recognition system and method for plural applications
JP5199391B2 (en) * 2008-11-25 2013-05-15 旭化成株式会社 Weight coefficient generation apparatus, speech recognition apparatus, navigation apparatus, vehicle, weight coefficient generation method, and weight coefficient generation program

Also Published As

Publication number Publication date
JPH11231889A (en) 1999-08-27

Similar Documents

Publication Publication Date Title
EP1450349B1 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
JP4292646B2 (en) User interface device, navigation system, information processing device, and recording medium
JP4736982B2 (en) Operation control device, program
US9123327B2 (en) Voice recognition apparatus for recognizing a command portion and a data portion of a voice input
JP2001013991A (en) Voice recognition supporting method and voice recognition system
JP3500948B2 (en) Voice recognition device
JP2001117584A (en) Voice processor
JP2003032388A (en) Communication terminal and processing system
JP2003323192A (en) Device and method for registering word dictionary
JP2000338993A (en) Voice recognition device and navigation system using this device
JP2001027540A (en) Navigation method to use function of voice recognition
JP3818352B2 (en) Navigation device and storage medium
US6687604B2 (en) Apparatus providing audio manipulation phrase corresponding to input manipulation
JP3296783B2 (en) In-vehicle navigation device and voice recognition method
JP4093394B2 (en) Voice recognition device
JPH09114491A (en) Device and method for speech recognition, device and method for navigation, and automobile
JP2005300989A (en) Speech recognition system
JP2006039954A (en) Database retrieval system, program, and navigation system
JP3911835B2 (en) Voice recognition device and navigation system
JP2002108389A (en) Method and device for retrieving and extracting individual's name by speech, and on-vehicle navigation device
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
JP2001282284A (en) Voice recognition device
JPH11325946A (en) On-vehicle navigation system
JP2000074685A (en) Retrieving method in mobile unit and car navigation system
JP2001306089A (en) Voice processor and navigation device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees