JP3291347B2 - Voice recognition device - Google Patents

Voice recognition device

Info

Publication number
JP3291347B2
JP3291347B2 JP04391893A JP4391893A JP3291347B2 JP 3291347 B2 JP3291347 B2 JP 3291347B2 JP 04391893 A JP04391893 A JP 04391893A JP 4391893 A JP4391893 A JP 4391893A JP 3291347 B2 JP3291347 B2 JP 3291347B2
Authority
JP
Japan
Prior art keywords
unit
voice
recognition
display
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04391893A
Other languages
Japanese (ja)
Other versions
JPH06259091A (en
Inventor
真一 鶴藤
祐一 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Tottori Sanyo Electric Co Ltd
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tottori Sanyo Electric Co Ltd, Sanyo Electric Co Ltd filed Critical Tottori Sanyo Electric Co Ltd
Priority to JP04391893A priority Critical patent/JP3291347B2/en
Publication of JPH06259091A publication Critical patent/JPH06259091A/en
Application granted granted Critical
Publication of JP3291347B2 publication Critical patent/JP3291347B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、音声を認識し、認識さ
れた結果により機器の制御を行う音声認識装置であっ
て、特に音声認識結果により機器が制御されることによ
り、機器に備えられている表示部の表示状態が変化し、
その状態変化に応じて認識対象となる語彙を逐次変化さ
せる音声認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition apparatus for recognizing voice and controlling the apparatus based on the recognized result. The display state of the display section that is
The present invention relates to a speech recognition device that sequentially changes the vocabulary to be recognized according to the state change.

【0002】[0002]

【従来の技術】近年のコンピュータ技術の進歩により、
人間の発声する音声を認識し、認識結果により各種機器
の制御を行うことが多く試みられている。このような試
みとしては、電話機、カーオーディオ、或るいはナビゲ
ーションシステムなどに応用されている。
2. Description of the Related Art Recent advances in computer technology have
Many attempts have been made to recognize voices uttered by humans and to control various devices based on the recognition results. Such attempts have been applied to telephones, car audio, or navigation systems.

【0003】例えば、ナビゲーションシステムにおいて
は、様々な情報を表示装置に表示することが行われてい
るが、これらの表示の場面毎に音声認識による制御を行
うことが可能である。このため、音声認識の認識対象語
彙は、ナビゲーションシステムの表示装置の表示状態に
応じて異ならしめることが一般的である。
For example, in a navigation system, various kinds of information are displayed on a display device, and control by voice recognition can be performed for each display scene. For this reason, it is general that the recognition target vocabulary for speech recognition is made different depending on the display state of the display device of the navigation system.

【0004】従来の音声認識機能を備えたナビゲーショ
ンシステムについて、図3、図4及び図5を参照しなが
ら説明する。
A conventional navigation system having a voice recognition function will be described with reference to FIGS. 3, 4 and 5. FIG.

【0005】図3は、従来の音声認識機能を具備するナ
ビゲーションシステムの概略構成図、図4は音声認識部
の概略構成図、及び図5はナビゲーションシステムにお
ける表示部の遷移状態を示す図である。
FIG. 3 is a schematic configuration diagram of a conventional navigation system having a voice recognition function, FIG. 4 is a schematic configuration diagram of a voice recognition unit, and FIG. 5 is a diagram showing a transition state of a display unit in the navigation system. .

【0006】図3における1は入力された音声を認識
し、認識結果を出力する音声認識部、2はトリガスイッ
チ(明示せず)に基づいて、音声認識部1に対する音声
の入力を許可する音声入力指定部、3は音声認識部1に
おいて認識対象となっている認識対象語のリスト表示
や、音声認識部1における認識結果に基づいた表示など
を行う表示部、4は表示部3へ表示する情報が格納され
ているCD−ROMであり、表示部3及びCD−ROM
4が音声認識部1の制御対象となる機器である。5は外
部の衛星からの信号を受信するアンテナ、6はアンテナ
5で受信された信号を基に、ナビゲーションシステムが
搭載された車両等の現在の位置を決定するGPS受信
機、7はCD−ROM4及びGPS受信機6の情報を基
にナビゲーションシステムの現在の表示状態を決定し、
音声認識部1に現在の表示状態を入力する状態検出部、
8は状態検出部7の表示状態に従い、表示部3において
表示される音声認識の認識リストが格納されている認識
対象リストテーブル、9は全体の制御を司る制御部であ
る。
In FIG. 3, reference numeral 1 denotes a speech recognition unit for recognizing an inputted speech and outputting a recognition result, and 2 a speech for permitting speech input to the speech recognition unit 1 based on a trigger switch (not explicitly shown). The input designation unit 3 displays a list of recognition target words to be recognized in the speech recognition unit 1, a display unit that performs display based on the recognition result in the speech recognition unit 1, and the display unit 4 displays it on the display unit 3. A display unit 3 and a CD-ROM storing information;
Reference numeral 4 denotes a device to be controlled by the voice recognition unit 1. Reference numeral 5 denotes an antenna for receiving a signal from an external satellite, 6 denotes a GPS receiver for determining a current position of a vehicle or the like on which a navigation system is mounted based on the signal received by the antenna 5, and 7 denotes a CD-ROM. And the current display state of the navigation system based on the information of the GPS receiver 6 and
A state detection unit that inputs the current display state to the voice recognition unit 1;
Reference numeral 8 denotes a recognition target list table in which a recognition list for voice recognition displayed on the display unit 3 is stored according to the display state of the state detection unit 7, and 9 is a control unit that controls the entire system.

【0007】一方、図4における11は入力された音声
を電気信号に変換するマイクロフォン、12はマイクロ
フォン11に入力された音声の分析を行い、特徴パラメ
ータを抽出する音声分析部、13は音声分析部12で抽
出された特徴パラメータを基に音声区間の検出を行う区
間検出部、14は区間検出部13で検出された区間の特
徴パラメータを基に、音声パターンを作成するパターン
作成部、15は識別に用いる参照パターンがあらかじめ
格納されている音声メモリ、16は音声メモリ15に格
納されている参照パターンと、パターン作成部14で作
成された音声パターンとのパターンマッチングを行い、
最も類似している参照パターンを抽出する識別部であ
る。
On the other hand, reference numeral 11 in FIG. 4 denotes a microphone for converting the input voice into an electric signal, 12 a voice analysis unit for analyzing the voice input to the microphone 11 and extracting characteristic parameters, and 13 a voice analysis unit. A section detection unit that detects a speech section based on the feature parameters extracted in 12, a pattern creation unit that creates a speech pattern based on the feature parameters of the section detected by the section detection unit 13, and 15 is an identification unit. The voice memory 16 stores a reference pattern used in advance in the voice memory, and 16 performs pattern matching between the reference pattern stored in the voice memory 15 and the voice pattern created by the pattern creation unit 14.
An identification unit that extracts the most similar reference pattern.

【0008】図5(a)は従来のナビゲーションシステ
ムを搭載した車両において、現在地を表示した場合の表
示部3の一例である(以下、状態という。)。図5
(b)は従来のナビゲーションシステムを搭載した車両
において目的地を表示した場合の表示部3の一例である
(以下、状態という。)。
FIG. 5A shows an example of a display unit 3 when a current position is displayed in a vehicle equipped with a conventional navigation system (hereinafter referred to as a state). FIG.
(B) is an example of the display unit 3 when a destination is displayed in a vehicle equipped with a conventional navigation system (hereinafter, referred to as a state).

【0009】使用者は、目的地に向かって出発する前
に、あらかじめナビゲーションシステムに目的地の登録
を行っておく。例えば、表示部3において、京都の地図
を選択し、目的地として京都駅周辺を指定する。
Before the user leaves for the destination, the user registers the destination in the navigation system in advance. For example, on the display unit 3, a map of Kyoto is selected, and the area around Kyoto Station is designated as the destination.

【0010】状態(図5(a)参照)において、使用
者は目的地の地図を検索したい場合には、音声入力指定
部2のトリガスイッチ(明示せず)を押下する。これに
よって音声入力指定部2は、斯るトリガスイッチが押下
されたことを検出すると、音声入力許可信号として、そ
の旨を制御部9に伝達する。制御部9は、音声入力許可
信号を受けると、状態検出部7で検出されている現在の
ナビゲーションシステムの表示部の表示状態である状態
を検出するとともに、認識対象リストテーブル8か
ら、状態において必要な認識対象リスト、例えば、表
1のリスト1を検索し、そのリストに示される認識対象
語彙を音声認識部1に伝達する。
In the state (see FIG. 5A), the user presses the trigger switch (not explicitly shown) of the voice input designation unit 2 when he / she wants to search the map of the destination. As a result, when detecting that such a trigger switch has been pressed, the voice input designation unit 2 transmits the fact to the control unit 9 as a voice input permission signal. When receiving the voice input permission signal, the control unit 9 detects the current display state of the display unit of the navigation system detected by the state detection unit 7, and determines from the recognition target list table 8 that the state is necessary. A search target list, for example, List 1 in Table 1, is searched, and the recognition target vocabulary indicated in the list is transmitted to the speech recognition unit 1.

【0011】[0011]

【表1】 [Table 1]

【0012】この後、使用者が音声認識部1のマイクロ
フォン11に向かって所望の言葉、例えば、<目的地>
と発声したとする。マイクロフォン11に入力された音
声<目的地>は、音声分析部12において特徴パラメー
タが抽出される。例えばフィルタバンクによりバンドパ
スフィルタ分析され、その各バンドパスフィルタの出力
が音声分析部12内のアナログ/ディジタルコンバータ
(明示せず)により、ディジタル値に変換され、この値
が特徴パラメータとして区間検出部13に伝送される。
Thereafter, the user speaks a desired word, for example, <destination> to the microphone 11 of the voice recognition unit 1.
And say The speech analysis unit 12 extracts feature parameters from the speech <destination> input to the microphone 11. For example, bandpass filter analysis is performed by a filter bank, and the output of each bandpass filter is converted into a digital value by an analog / digital converter (not explicitly shown) in the voice analysis unit 12, and this value is used as a feature parameter as a section detection unit. 13 is transmitted.

【0013】区間検出部13は音声分析部12から伝送
された特徴パラメータを受け、あらかじめ設定されてい
る閾値と比較し、音声区間の始端及び終端の検出を行
う。パターン作成部14は区間検出部13で検出された
音声の始端から終端までの特徴パラメータをパターン化
する。パターン作成部14において作成された音声パタ
ーンは、識別部16に伝送され、識別部16において、
音声メモリ15に格納されている参照パターンと順次パ
ターンマッチングが行われる。ここでは、番号のアッ
プから番号の縮小まで順番にパターンマッチングが行
われ、最も類似している単語<目的地>の番号が選択
され、制御部9に出力される。
The section detecting section 13 receives the characteristic parameters transmitted from the voice analyzing section 12, compares the characteristic parameters with a preset threshold value, and detects the start and end of the voice section. The pattern creation unit 14 patterns the feature parameters from the start to the end of the voice detected by the section detection unit 13. The voice pattern created by the pattern creation unit 14 is transmitted to the identification unit 16, and the identification unit 16
Pattern matching is sequentially performed with the reference patterns stored in the audio memory 15. Here, pattern matching is performed in order from number increase to number reduction, and the number of the most similar word <destination> is selected and output to the control unit 9.

【0014】音声認識部1から出力された番号は、制
御部9に伝送される。制御部9は、音声認識部1の認識
結果に該当する処理を行う。この場合の処理は、表示部
3に目的地の情報を表示することであるので、制御部9
のメモリ(明示せず)に格納されている目的地のコード
を参照して、CD−ROM4から目的地の情報を検索
し、表示部3に目的地の情報を表示する。その結果、状
態(図5(b)参照)に示すように表示部3の表示が
変更される。
The number output from the voice recognition unit 1 is transmitted to the control unit 9. The control unit 9 performs a process corresponding to the recognition result of the voice recognition unit 1. Since the processing in this case is to display the information of the destination on the display unit 3, the control unit 9
With reference to the destination code stored in the memory (not explicitly shown), the destination information is searched from the CD-ROM 4 and the destination information is displayed on the display unit 3. As a result, the display on the display unit 3 is changed as shown in the state (see FIG. 5B).

【0015】[0015]

【発明が解決しようとする課題】然し乍ら、音声認識機
能を備えるナビゲーションシステムにおいては、音声認
識部1の結果により、ナビゲーションシステムの表示状
態を変更するため、その表示状態により、音声認識の対
象となる語彙が一定とは限らず、逐次変化していくのが
一般的である。
However, in a navigation system having a voice recognition function, the display state of the navigation system is changed according to the result of the voice recognition unit 1, so that the display state is subject to voice recognition. The vocabulary is not always constant, but generally changes sequentially.

【0016】この場合には、使用者は、表示部3に現在
の音声認識の対象となる語彙が全く表示されていないと
すると、その対象となる語彙ではない言葉を発声する可
能性があり、斯る場合、音声認識部1は、認識対象語の
中から最も類似しているものを選択するため、ナビゲー
ションシステムは誤動作を起こしていた。
In this case, if the display unit 3 does not display any vocabulary to be currently subjected to speech recognition, the user may utter a word that is not the vocabulary to be recognized. In such a case, the speech recognition unit 1 selects the most similar word from the recognition target words, so that the navigation system malfunctions.

【0017】このため、ナビゲーションシステムの表示
部3に、音声認識部1で現在認識の対象になっている語
彙のリストを表示することが行われていた。この方法に
よると、ナビゲーションシステムの必要とする表示情報
が、表示部3に表示されているにも係わらず、表示部3
に認識対象語のリストを重複して表示するため、ナビゲ
ーションシステムの必要とする表示情報の一部が欠けて
しまい、所望の表示情報を得ることができないという問
題点があった。
For this reason, a list of words currently recognized by the voice recognition unit 1 is displayed on the display unit 3 of the navigation system. According to this method, the display information required by the navigation system is displayed on the display
However, since the list of words to be recognized is redundantly displayed, a part of the display information required by the navigation system is missing, and there is a problem that desired display information cannot be obtained.

【0018】[0018]

【課題を解決するための手段】そこで、本発明の音声認
識装置は、音声認識部に対して制御部が機器を制御する
ための音声の入力を許可する音声入力指定部と、認識対
象リスト、或るいは音声認識部の認識結果などから得ら
れる所望の表示情報のうち少なくとも1つを表示する表
示部と、表示部に認識対象リストを表示しておく時間を
計時するタイマと、を備えることにより、音声入力指定
部が音声入力可能状態になると、タイマの計時を開始す
ると共に、表示部に認識対象リストを表示し、タイマが
所定時間に到達すると、表示部の表示情報を認識対象リ
ストから、ナビゲーションシステムが出力する所望の表
示情報に切り替えることを可能とする。
SUMMARY OF THE INVENTION Accordingly, a speech recognition apparatus according to the present invention includes a speech input designating section for permitting a control section to input speech for controlling a device, a speech recognition section, A display unit for displaying at least one of desired display information obtained from a recognition result of the voice recognition unit, and a timer for measuring a time for displaying a recognition target list on the display unit. By this, when the voice input designation unit is in a voice input enabled state, the timer starts counting, and the recognition target list is displayed on the display unit, and when the timer reaches a predetermined time, the display information of the display unit is changed from the recognition target list. It is possible to switch to desired display information output by the navigation system.

【0019】[0019]

【作用】上述の手段によれば、音声入力指定部を音声入
力許可の状態にすると、タイマが計時を開始すると共
に、表示部において認識対象リストを表示し、一方、タ
イマが所定時間に到達すると表示部において表示されて
いる認識対象リストを消去する。
According to the above-mentioned means, when the voice input designation section is set to the voice input permission state, the timer starts measuring time and the recognition target list is displayed on the display section, while when the timer reaches a predetermined time. The recognition target list displayed on the display unit is deleted.

【0020】[0020]

【実施例】図1は本発明の音声認識装置の一実施例の概
略構成図を示す。
FIG. 1 is a schematic block diagram showing an embodiment of a speech recognition apparatus according to the present invention.

【0021】図1において、従来例に示す図3と同一機
能を有するものについては、同一番号を付し、その説明
は省略する。
In FIG. 1, components having the same functions as those of the conventional example shown in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted.

【0022】本発明が従来例と異なる点は、タイマ10
を備えたことであり、このタイマ10及び音声入力指定
部2により、所定時間のみ認識対象リストを表示部3に
於て表示し、このタイマ10は、音声入力指定部2で音
声入力が許可されると、カウントを開始し、あらかじめ
設定されているカウント値に到達すると、その旨を制御
部9に伝達する。
The difference between the present invention and the prior art is that the timer 10
The timer 10 and the voice input designating unit 2 display the recognition target list on the display unit 3 only for a predetermined time, and the timer 10 allows the voice input designating unit 2 to perform voice input. Then, counting is started, and when the count value reaches a preset count value, the fact is transmitted to the control unit 9.

【0023】図2は、本発明の音声認識装置の表示部3
の遷移状態図を示している。
FIG. 2 shows a display unit 3 of the speech recognition apparatus according to the present invention.
3 shows a transition state diagram.

【0024】音声入力指定部2のトリガスイッチ(明示
せず)が押下されると、音声入力許可信号が、制御部9
に伝達される。制御部9は、音声入力許可信号を受ける
と、タイマ10にカウントの開始を指示するとともに、
状態検出部7から表示部3の表示状態を読み取る。現在
の表示状態は、状態であるので、その状態において
必要な表1のリスト1を認識対象リストテーブル8から
検索する。制御部9は、検索された認識対象リストの内
容に従って、表示部3に認識対象リストを転送すること
により、表示部3に認識対象リストが図2(a)の如く
表示される。
When a trigger switch (not explicitly shown) of the voice input designation section 2 is pressed, a voice input permission signal is sent to the control section 9.
Is transmitted to When receiving the voice input permission signal, the control unit 9 instructs the timer 10 to start counting, and
The display state of the display unit 3 is read from the state detection unit 7. Since the current display state is the state, the list 1 of Table 1 required in that state is searched from the recognition target list table 8. The control unit 9 transfers the recognition target list to the display unit 3 according to the contents of the searched recognition target list, so that the recognition target list is displayed on the display unit 3 as shown in FIG.

【0025】さらに制御部9は、タイマ10にカウント
を開始することを指示する。タイマ10は、カウントを
開始すると、あらかじめ設定されているカウント値(例
えば10秒)までカウントを継続し、設定されているカ
ウント値になると、カウント終了信号として、その旨を
制御部9に伝達する。制御部9は、タイマ10からのカ
ウント終了信号を受け、表示部3から認識対象リストの
表示を消去し、本来の表示画面であるナビゲーションシ
ステムが出力する所望の表示情報を図2(b)の如く変
更し、表示する。
Further, the control unit 9 instructs the timer 10 to start counting. When the timer 10 starts counting, the timer 10 continues counting up to a preset count value (for example, 10 seconds). When the count value reaches the preset count value, the timer 10 transmits a count end signal to the control unit 9. . The control unit 9 receives the count end signal from the timer 10, deletes the display of the recognition target list from the display unit 3, and displays the desired display information, which is the original display screen, which is output by the navigation system in FIG. Change and display as shown.

【0026】一方、制御部9は、音声入力指定部2のト
リガスイッチ(明示せず)が押下されると音声認識部1
に音声認識が可能であることを指示する。
On the other hand, when the trigger switch (not explicitly shown) of the voice input designation unit 2 is pressed, the control unit 9 controls the voice recognition unit 1.
To the user that voice recognition is possible.

【0027】音声認識部1は、マイクロフォン11に入
力された音声を認識し、認識結果を制御部9に伝達す
る。音声認識部1の動作は従来例と同じであるので、こ
こでは説明を省略する。
The voice recognition unit 1 recognizes voice input to the microphone 11 and transmits a recognition result to the control unit 9. The operation of the voice recognition unit 1 is the same as that of the conventional example, and the description is omitted here.

【0028】制御部9は、例えば、認識結果として、<
目的地>を得ると、制御部9の内部メモリ(明示せず)
に格納されている目的地のコードを参照して、CD−R
OM4から目的地の情報を検索し、表示部3に目的地の
情報を表示する。その結果、状態(図2(c)参照)
に示すように表示部3の表示が変更される。
The control unit 9 outputs, for example, <
When the destination> is obtained, the internal memory of the control unit 9 (not explicitly shown)
Refer to the destination code stored in the CD-R
The information of the destination is searched from the OM 4 and the information of the destination is displayed on the display unit 3. As a result, the state (see FIG. 2C)
The display on the display unit 3 is changed as shown in FIG.

【0029】この後、音声の入力を行う場合には、音声
入力指定部2のトリガスイッチを押下する。音声入力指
定部2のトリガスイッチが押下されると、音声入力許可
信号が、制御部9に伝達される。制御部9は、音声入力
許可信号を受けると、タイマ10にカウントの開始を指
示するとともに、状態検出部7から表示状態を読み取
る。現在の表示状態は、状態であるので、その状態
において必要な表1のリスト2を認識対象リストテーブ
ル8から検索し、表示部3に表示する。この状態を図2
(d)に示す。
Thereafter, when inputting voice, the trigger switch of the voice input designating section 2 is pressed. When the trigger switch of the voice input designation unit 2 is pressed, a voice input permission signal is transmitted to the control unit 9. When receiving the voice input permission signal, the control unit 9 instructs the timer 10 to start counting and reads the display state from the state detection unit 7. Since the current display state is the state, the list 2 of Table 1 required in that state is searched from the recognition target list table 8 and displayed on the display unit 3. This state is shown in FIG.
(D).

【0030】以上の動作により、音声入力指定部2にお
いて、音声入力が指定された場合に表示部3に一定時間
の間、認識対象リストを表示することが可能である。
With the above operation, when the voice input is specified in the voice input specifying unit 2, the recognition target list can be displayed on the display unit 3 for a certain period of time.

【0031】本実施例においては、音声入力指定部2に
おける入力の指定としては、マニュアルスイッチング入
力による方法を用いたが、本発明はマニュアルスイッチ
ング入力に限定されるものではなく、例えば、音声認識
部1における認識結果に基づいて、音声入力指定部2に
おいて音声入力を指定することも可能である。
In this embodiment, the input by the voice input specifying unit 2 is specified by a manual switching input method. However, the present invention is not limited to the manual switching input. It is also possible to specify voice input in the voice input specifying unit 2 based on the recognition result in 1.

【0032】また、本実施例は、音声認識機能を備えた
ナビゲーションシステムについて説明したが、本発明の
内容は、ナビゲーションシステムなどの音声認識結果に
より制御される被制御機器に限定されるものでなく、表
示機能を備える音声認識装置に用いることが可能であ
る。
In this embodiment, the navigation system having the voice recognition function has been described. However, the contents of the present invention are not limited to the controlled equipment controlled by the voice recognition result such as the navigation system. It can be used for a voice recognition device having a display function.

【0033】尚、本実施例では、表示部3の表示状態を
状態、状態の2種類にのみ限定して説明したが、こ
の他にも<経由地>等を含めて3つ以上の表示状態を有
する場合も同様であり、この場合も、表示部3の表示状
態に併せてそれぞれの表示状態に対応する認識対象リス
トを表示することができることは言うまでもない。
In the present embodiment, the display state of the display unit 3 is limited to only two types of state and state. However, in addition to this, three or more display states including <transit point> and the like are described. It is needless to say that the recognition target list corresponding to each display state can be displayed together with the display state of the display unit 3 in this case.

【0034】[0034]

【発明の効果】本発明は以上の説明から明らかなよう
に、音声入力指定部において、音声入力が指定される
と、タイマにおいて表示部に認識対象リストを表示する
時間をカウントするため、一定時間の間、認識対象リス
トを表示することが可能となる。
As is apparent from the above description, according to the present invention, when a voice input is specified in the voice input specifying unit, the timer counts the time for displaying the recognition target list on the display unit, so that a certain time is required. During the period, the recognition target list can be displayed.

【0035】また、使用者が認識対象リストを参照して
発声するため、認識対象以外の言葉の発声を防止するこ
とが可能となる。更に、認識対象リストが表示部に表示
されていない間は、所望の表示情報を表示することが可
能となり、所望の表示情報の一部が欠けることを防止す
ることも可能となり、所望の表示情報を所望の時期に得
ることが可能である。
Since the user speaks with reference to the recognition target list, it is possible to prevent words other than the recognition target from being uttered. Further, while the recognition target list is not displayed on the display unit, desired display information can be displayed, and it is possible to prevent a part of the desired display information from being lost. Can be obtained at a desired time.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の音声認識機能を備えたナビゲーション
システムの一実施例の概略構成図
FIG. 1 is a schematic configuration diagram of an embodiment of a navigation system having a voice recognition function according to the present invention.

【図2】本発明の音声認識機能を備えたナビゲーション
システムの表示部の遷移状態図
FIG. 2 is a transition state diagram of a display unit of a navigation system having a voice recognition function according to the present invention.

【図3】従来の音声認識機能を備えたナビゲーションシ
ステムの一実施例の概略構成図
FIG. 3 is a schematic configuration diagram of one embodiment of a conventional navigation system having a voice recognition function.

【図4】従来の音声認識部の一実施例の概略構成図FIG. 4 is a schematic configuration diagram of an embodiment of a conventional voice recognition unit.

【図5】従来の音声認識機能を備えたナビゲーションシ
ステムの表示部の遷移状態図
FIG. 5 is a transition state diagram of a display unit of a navigation system having a conventional voice recognition function.

【符号の説明】[Explanation of symbols]

1 音声認識部 2 音声入力指定部 3 表示部 7 状態検出部 8 認識対象リストテーブル 9 制御部 10 タイマ DESCRIPTION OF SYMBOLS 1 Voice recognition part 2 Voice input designation part 3 Display part 7 State detection part 8 Recognition target list table 9 Control part 10 Timer

フロントページの続き (56)参考文献 特開 平3−222002(JP,A) 特開 昭57−63599(JP,A) 特開 平4−152399(JP,A) 特開 平3−106276(JP,A) 特開 平5−110908(JP,A) 特開 平1−240922(JP,A) 特開 平4−250489(JP,A) 特開 平2−224100(JP,A) 実開 平3−22491(JP,U) 特公 平4−15479(JP,B2) 国際公開91/8567(WO,A1) (58)調査した分野(Int.Cl.7,DB名) G10L 15/00 - 15/28 G09B 29/10 Continuation of front page (56) References JP-A-3-222002 (JP, A) JP-A-57-63599 (JP, A) JP-A-4-152399 (JP, A) JP-A-3-106276 (JP) JP-A-5-110908 (JP, A) JP-A-1-240922 (JP, A) JP-A-4-250489 (JP, A) JP-A-2-224100 (JP, A) 3-22491 (JP, U) JP 4-15479 (JP, B2) International Publication 91/8567 (WO, A1) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 15/00- 15/28 G09B 29/10

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力された音声を認識し、認識結果を出
力する音声認識部と、該音声認識部の出力を受けて、前
記音声認識部の制御対象となるナビゲーションシステム
用機器を制御する制御部と、前記音声認識部で認識対象
となる語彙の認識対象リストが格納されている認識対象
リストテーブルと、前記音声認識部に対して前記制御部
ナビゲーションシステム用機器を制御するための音声
の入力を許可する音声入力指定部と、前記認識対象リス
ト、或るいは前記音声認識部の認識結果などから得られ
ナビゲーションシステム用機器のための所望の表示情
報のうち少なくとも1つを表示する表示部と、該表示部
に前記認識対象リストを表示しておく時間を計時するタ
イマと、を備え、 前記音声入力指定部において音声入力可能と指定される
と、前記タイマが動作を開始すると共に、前記表示部に
おいて、ナビゲーションシステム用機器のための所望の
表示情報の表示の上に前記認識対象リストを重ねて表示
し、一方、前記タイマが所定時間に到達すると、前記表
示部において表示されている前記認識対象リストを消去
することを特徴とするナビゲーションシステム用音声認
識装置。
1. A voice recognition unit for recognizing an input voice and outputting a recognition result, and a navigation system which receives an output of the voice recognition unit and is controlled by the voice recognition unit.
A control unit that controls a device for navigation , a recognition target list table storing a recognition target list of vocabulary to be recognized by the voice recognition unit, and the control unit controls the navigation system device for the voice recognition unit. A voice input designation unit for permitting input of voice for control, and at least one of desired display information for a navigation system device obtained from the recognition target list or a recognition result of the voice recognition unit. And a timer for measuring the time during which the recognition target list is displayed on the display unit. When the voice input specification unit specifies that voice input is possible, the timer operates. And displaying the recognition target list on the display unit on the display of desired display information for the navigation system device. On the other hand, when the timer reaches a predetermined time, the recognition target list displayed on the display unit is deleted.
【請求項2】 前記音声入力指定部による音声入力の許
可手段としては、前記音声認識部における認識結果であ
ることを特徴とする請求項1記載のナビゲーションシス
テム用音声認識装置
2. The navigation system according to claim 1, wherein said means for permitting speech input by said speech input designation unit is a recognition result of said speech recognition unit.
System voice recognition device .
【請求項3】 前記音声入力指定部による音声入力の許
可手段としては、キーであることを特徴とする請求項1
記載のナビゲーションシステム用音声認識装置
3. The key input device according to claim 1, wherein the input unit for permitting the voice input by the voice input designating unit is a key.
A speech recognition device for a navigation system according to the above.
JP04391893A 1993-03-04 1993-03-04 Voice recognition device Expired - Fee Related JP3291347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04391893A JP3291347B2 (en) 1993-03-04 1993-03-04 Voice recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04391893A JP3291347B2 (en) 1993-03-04 1993-03-04 Voice recognition device

Publications (2)

Publication Number Publication Date
JPH06259091A JPH06259091A (en) 1994-09-16
JP3291347B2 true JP3291347B2 (en) 2002-06-10

Family

ID=12677100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04391893A Expired - Fee Related JP3291347B2 (en) 1993-03-04 1993-03-04 Voice recognition device

Country Status (1)

Country Link
JP (1) JP3291347B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3524983B2 (en) 1995-04-28 2004-05-10 富士通テン株式会社 Audio processing device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114490A (en) * 1995-10-16 1997-05-02 Sony Corp Device and method for speech recognition, device and method for navigation, and automobile
JP2001034292A (en) * 1999-07-26 2001-02-09 Denso Corp Word string recognizing device
JP6405316B2 (en) * 2013-11-08 2018-10-17 株式会社ソニー・インタラクティブエンタテインメント Entertainment device, display control method, program, and information storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3524983B2 (en) 1995-04-28 2004-05-10 富士通テン株式会社 Audio processing device

Also Published As

Publication number Publication date
JPH06259091A (en) 1994-09-16

Similar Documents

Publication Publication Date Title
US7702130B2 (en) User interface apparatus using hand gesture recognition and method thereof
EP1187099B1 (en) Voice recognition apparatus
CN106796786B (en) Speech recognition system
US7617108B2 (en) Vehicle mounted control apparatus
JP2004126413A (en) On-board controller and program which makes computer perform operation explanation method for the same
EP1207516B1 (en) Device setter, device setting system, and recorded medium where device setting program is recorded
JP3291347B2 (en) Voice recognition device
JP2001216129A (en) Command input device
JP4056711B2 (en) Voice recognition device
JPH0713591A (en) Device and method for speech recognition
EP1316944B1 (en) Sound signal recognition system and method, and dialog control system and method using it
US11164578B2 (en) Voice recognition apparatus, voice recognition method, and non-transitory computer-readable storage medium storing program
JP3082618B2 (en) Elevator voice input device
JP2000338993A (en) Voice recognition device and navigation system using this device
KR101933822B1 (en) Intelligent speaker based on face reconition, method for providing active communication using the speaker, and computer readable medium for performing the method
JP2000276187A (en) Method and device for voice recognition
JPH03257485A (en) On-vehicle map display device
JPS6332394B2 (en)
JP3849283B2 (en) Voice recognition device
US20150192425A1 (en) Facility search apparatus and facility search method
KR100749088B1 (en) Conversation type navigation system and method thereof
JP2007183516A (en) Voice interactive apparatus and speech recognition method
JPH1063288A (en) Voice recognition device
JP2004233542A (en) Speech recognition equipment
JP2005309185A (en) Device and method for speech input

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090322

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090322

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100322

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110322

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees