JP2003029778A - Voice interactive interface processing method in navigation system - Google Patents

Voice interactive interface processing method in navigation system

Info

Publication number
JP2003029778A
JP2003029778A JP2001215962A JP2001215962A JP2003029778A JP 2003029778 A JP2003029778 A JP 2003029778A JP 2001215962 A JP2001215962 A JP 2001215962A JP 2001215962 A JP2001215962 A JP 2001215962A JP 2003029778 A JP2003029778 A JP 2003029778A
Authority
JP
Japan
Prior art keywords
voice
document
recognition result
dialogue
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001215962A
Other languages
Japanese (ja)
Inventor
Masahiro Kamiya
昌宏 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2001215962A priority Critical patent/JP2003029778A/en
Publication of JP2003029778A publication Critical patent/JP2003029778A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To make navigation functions executable in a navigation system in accordance with the flow of interaction (situation) while conducting voice conversation with a user. SOLUTION: The system is provided with a display section (10), a voice recognition processing section (14) which is used to recognize voice being inputted from a microphone (15) and to output the recognition results in a word unit, a voice interactive control section (13) which is used to conduct interactive controls with the user while discriminating the interactive condition in accordance with the recognition results, a voice synthesis processing section (16) which outputs voice guidance, a guidance processing section (20) that is used to execute the navigation functions and a user interface control section (12). In the system, a document for voice guidance and a document for screen display are determined in accordance with the interactive condition. A voice guidance output by the voice guidance document is conducted by the section (16), the screen display document is displayed on the section (19) and the navigation functions are executed in accordance with the recognition results and the interactive condition.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、音声対話を行うこ
とができる車載用のナビゲーションシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle-mounted navigation system capable of performing voice interaction.

【0002】[0002]

【従来の技術】音声操作機能を備えた車載用のナビゲー
ションシステムが存在している。従来の音声操作機能付
きナビゲーションシステムでは、ユーザが音声入力(例
えば目的地の入力)を行うと、その入力を認識し(目的
地の認識)、認識を完了すると一旦音声入力操作を終了
し、その後認識された入力に応じてナビゲーション機能
(認識された目的地までのルート案内等)を実行してい
た。
2. Description of the Related Art A vehicle-mounted navigation system having a voice operation function exists. In a conventional navigation system with a voice operation function, when a user inputs a voice (for example, input of a destination), the input is recognized (recognition of the destination), and when the recognition is completed, the voice input operation is once terminated, and then The navigation function (route guidance to the recognized destination, etc.) was executed according to the recognized input.

【0003】したがって、従来のナビゲーションシステ
ムがユーザによる音声入力を誤って認識した場合や、ユ
ーザが誤って音声入力を行った場合には、最初から音声
入力操作をやり直す必要があった。例えば、ユーザが目
的地の音声入力を行ったにも拘わらず、希望した目的地
とは異なった目的地が認識され、誤った認識に基づいて
ルート案内がなされた場合には、再度目的地の音声入力
からやり直す必要があった。
Therefore, when the conventional navigation system erroneously recognizes the voice input by the user or when the user erroneously inputs the voice, the voice input operation needs to be redone from the beginning. For example, if a destination different from the desired destination is recognized and the route guidance is made based on incorrect recognition, even though the user has input the destination by voice, the destination is again recognized. I had to start over from voice input.

【0004】実際のナビゲーション機能の実行には、様
々なパラメータ、例えば目的地の県名・市名・町名、目
的地の住所、目的地までの経由地、目的地までの行き方
(有料道路の利用等)、ルート案内の方法、地図の縮
尺、及び地図の表示方法等の設定が必要である。しかし
ながら、ナビゲーションシステムが誤ってパラメータの
認識をしてしまい、誤ったナビゲーション機能が実行さ
れた場合には、多くのパラメータの設定を最初からやり
直す必要があり、ユーザには大変な手間であった。
Various parameters are used to execute the actual navigation function, for example, the prefecture / city / town name of the destination, the address of the destination, the waypoint to the destination, and the way to the destination (use of toll roads. Etc.), route guidance method, map scale, map display method, etc. must be set. However, if the navigation system mistakenly recognizes the parameter and the wrong navigation function is executed, it is necessary to redo many parameter settings from the beginning, which is very troublesome for the user.

【0005】また、ナビゲーションシステムは、ナビゲ
ーション機能を実行するために必要な情報を、音声対話
によって得るために1通りの受け答えしかすることがで
きなかった。したがって、ユーザの発話の自由度が低
く、ユーザが希望するナビゲーション機能を設定するた
めに多くの時間を必要としていた。
Further, the navigation system can only answer in one way in order to obtain the information necessary for executing the navigation function by the voice interaction. Therefore, the degree of freedom of the user's speech is low, and much time is required to set the navigation function desired by the user.

【0006】[0006]

【発明が解決しようとする課題】そこで本発明は、ユー
ザとの間で音声対話を行いながら、対話の流れ(状況)
に応じてナビゲーション機能を実行させることを可能と
するナビゲーションシステムにおける音声対話インター
フェース処理方法を提供することを目的とするものであ
る。
Therefore, according to the present invention, a flow (situation) of a dialogue is performed while performing a voice dialogue with a user.
It is an object of the present invention to provide a method for processing a voice interaction interface in a navigation system, which makes it possible to execute a navigation function according to the above.

【0007】また、本発明は、音声対話におけるユーザ
の発話の自由度を高め、対話に状態に応じたきめ細やか
な応答や案内を可能とするナビゲーションシステムにお
ける音声対話インターフェース処理方法を提供すること
を目的とするものである。
Further, the present invention provides a voice dialog interface processing method in a navigation system which enhances the degree of freedom of the user's utterance in voice dialog and enables detailed response and guidance according to the state of the dialog. It is intended.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するため
に、本発明に係るナビゲーションシステムにおける音声
対話インターフェース処理方法は、表示部と、マイクロ
フォンから入力された音声を認識して単語単位の認識結
果を出力する音声認識処理部と、認識結果に応じて対話
状態を判断しながらユーザとの対話制御を行う音声対話
制御部と、音声案内を出力する音声合成処理部と、ナビ
ゲーション機能を実行するための案内処理部と、ユーザ
インターフェース管理部とを有し、ユーザインターフェ
ース管理部は、対話状態応じて音声案内用文書及び画面
表示用文書を決定し、音声合成処理部から音声案内用文
書による音声案内出力を行い、表示部に画面表示用文書
を表示し、認識結果及び対話状態に応じて、案内処理部
によるナビゲーション機能を実行させることを特徴とす
る。ユーザインターフェース管理部が、対話状態に応じ
て、音声案内用文書及び画面表示用文書を決定するよう
に構成したものである。
In order to solve the above-mentioned problems, a method for processing a voice interaction interface in a navigation system according to the present invention recognizes a voice input from a display unit and a microphone, and recognizes words by word. For executing a navigation function, a voice recognition control section for outputting a voice guidance, a voice recognition control section for controlling a dialogue with a user while judging a dialogue state according to a recognition result, a voice synthesis processing section for outputting a voice guidance. Has a guidance processing unit and a user interface management unit. The user interface management unit determines a voice guidance document and a screen display document according to a dialogue state, and the voice synthesis processing unit performs voice guidance using the voice guidance document. Outputs, displays the screen display document on the display unit, and navigates by the guidance processing unit according to the recognition result and the dialogue state. Characterized in that to execute the down function. The user interface management unit is configured to determine the voice guidance document and the screen display document according to the conversation state.

【0009】さらに、ユーザインターフェース管理部
は、対話状態と文書とを対応付けたテーブルを用いて、
音声案内用文書又は画面表示用文書を決定することが好
ましい。対話状態と文書を対応付けた遷移テーブルを用
いて音声案内用文書又は画面表示用文書を決定するよう
に構成したものである。
Further, the user interface management unit uses a table in which the dialogue state and the document are associated with each other,
It is preferable to determine a voice guidance document or a screen display document. The configuration is such that the voice guidance document or the screen display document is determined using a transition table in which the dialog state and the document are associated with each other.

【0010】さらに、ユーザインターフェース管理部
は、テーブルが同一の対話状態に対して複数の文書が対
応している場合には、認識結果の単語数に応じて、音声
案内用文書又は画面表示用文書を決定することが好まし
い。
Further, when a plurality of documents correspond to the same conversation state in the same table, the user interface management section determines the voice guidance document or the screen display document according to the number of words in the recognition result. Is preferably determined.

【0011】さらに、ユーザインターフェース管理部
は、テーブルが同一の対話状態に対して複数の文書が対
応している場合には、認識結果の単語属性に応じて、音
声案内用文書又は画面表示用文書を決定することが好ま
しい。
Furthermore, when a plurality of documents correspond to the same conversation state in the same table, the user interface management unit determines whether the voice guidance document or the screen display document depends on the word attribute of the recognition result. Is preferably determined.

【0012】さらに、ユーザインターフェース管理部
は、テーブルが同一の対話状態に対して複数の文書が対
応している場合には、認識結果の単語認識エラーに応じ
て、音声案内用文書又は画面表示用文書を決定すること
が好ましい。
Further, when a plurality of documents correspond to the same conversation state in the same table, the user interface management unit displays the voice guidance document or the screen display according to the word recognition error of the recognition result. It is preferable to determine the document.

【0013】さらに、ユーザインターフェース管理部
は、テーブルが同一の対話状態に対して複数の文書が対
応している場合には、認識結果の単語認識エラーの回数
に応じて、音声案内用文書又は画面表示用文書を決定す
ることが好ましい。
Further, when a plurality of documents correspond to the same conversation state in the same table, the user interface management unit determines the voice guidance document or screen according to the number of word recognition errors in the recognition result. It is preferable to determine the display document.

【0014】さらに、ユーザインターフェース管理部
は、認識結果の単語属性に応じて、予め定められた記憶
領域に認識結果を格納することが好ましい。予め定めら
れた記憶領域、即ちスロットに各種認識結果を格納する
ように構成したものである。
Further, it is preferable that the user interface management unit stores the recognition result in a predetermined storage area according to the word attribute of the recognition result. Various recognition results are stored in a predetermined storage area, that is, a slot.

【0015】さらに、ユーザインターフェース管理部
は、認識結果の単語属性が案内処理部によるナビゲーシ
ョン機能の実行に不必要な場合は、認識結果を記憶領域
に格納しないことが好ましい。
Further, the user interface management unit preferably does not store the recognition result in the storage area when the word attribute of the recognition result is not necessary for the guidance processing unit to execute the navigation function.

【0016】さらに、ユーザインターフェース管理部
は、対話制御部による対話終了後に、記憶領域をチェッ
クし、認識結果が格納されている記憶領域に応じて、案
内処理部によるナビゲーション機能を実行させることが
好ましい。
Further, it is preferable that the user interface management section checks the storage area after the dialogue control section finishes the dialogue and causes the guidance processing section to execute the navigation function according to the storage area in which the recognition result is stored. .

【0017】さらに、ユーザインターフェース管理部
は、案内処理部によるナビゲーション機能の実行のため
に複数の認識結果が必要な場合には、複数の認識結果を
格納するために連続した複数の記憶領域を設定すること
が好ましい。
Furthermore, when a plurality of recognition results are required for the guidance processing unit to execute the navigation function, the user interface management unit sets a plurality of continuous storage areas for storing the plurality of recognition results. Preferably.

【0018】さらに、ユーザインターフェース管理部
は、対話制御部による対話終了後に、記憶領域をチェッ
クし、連続した複数の記憶領域の先頭に認識結果が格納
されていなければ、その後の記憶領域にも認識結果が格
納されていないものと判断することが好ましい。
Further, the user interface management section checks the storage area after the dialogue by the dialogue control section, and if the recognition result is not stored at the head of a plurality of consecutive storage areas, the user interface management section also recognizes it in the subsequent storage areas. It is preferable to judge that the result is not stored.

【0019】さらに、ナビゲーションシステムは、案内
処理部によるナビゲーション機能の実行のためのデータ
ベースを更に有し、ユーザインターフェース管理部は、
認識結果をデータベースの表記に変換することが好まし
い。
Further, the navigation system further includes a database for executing the navigation function by the guidance processing unit, and the user interface management unit includes
It is preferable to convert the recognition result into a database notation.

【0020】また、上記課題を解決するために、本発明
に係るナビゲーションシステムにおける音声対話インタ
ーフェース処理方法は、表示部と、マイクロフォンから
入力された音声を認識して単語単位の認識結果を出力す
る音声認識処理部と、認識結果に応じて対話状態を判断
しながらユーザとの対話制御を行う音声対話制御部と、
音声案内を出力する音声合成処理部と、ナビゲーション
機能を実行するための案内処理部と、ユーザインターフ
ェース管理部とを有するナビゲーションシステムにおい
て、音声対話制御部は、対話状態応じて音声案内用文書
及び画面表示用文書を決定し、ユーザインターフェース
管理部は、音声合成処理部から音声案内用文書による音
声案内出力を行い、表示部に画面表示用文書を表示し、
認識結果及び対話状態応じて、案内処理部によるナビゲ
ーション機能を実行させることを特徴とする。ユーザイ
ンターフェース管理部ではなく、音声対話制御部が、対
話状態に応じて、音声案内用文書及び画面表示用文書を
決定するように構成したものである。
Further, in order to solve the above-mentioned problems, a voice interaction interface processing method in a navigation system according to the present invention is a voice for recognizing a voice inputted from a display unit and a microphone and outputting a recognition result for each word. A recognition processing unit, a voice interaction control unit that controls an interaction with a user while determining an interaction state according to a recognition result,
In a navigation system having a voice synthesis processing unit for outputting voice guidance, a guidance processing unit for executing a navigation function, and a user interface management unit, a voice dialogue control unit has a voice guidance document and a screen according to a dialogue state. After determining the display document, the user interface management unit performs voice guidance output from the voice synthesis processing unit using the voice guidance document, displays the screen display document on the display unit,
It is characterized in that the navigation function by the guidance processing unit is executed according to the recognition result and the dialogue state. The voice interaction control unit, not the user interface management unit, is configured to determine the voice guidance document and the screen display document according to the interaction state.

【0021】[0021]

【発明の実施の形態】図1に、本発明に係るナビゲーシ
ョンシステム10の基本構成を示す。図1に示すナビゲ
ーションシステム10は、ナビゲーションシステム10
全体を制御管理するためのシステム管理部11、ユーザ
との音声対話を含めた全ての対応を管理するユーザイン
ターフェース管理部12、ユーザとの音声対話の制御行
う対話制御部13、運転席付近に設けられたマイクロフ
ォン15を介して入力されるユーザの音声から音声の内
容を認識するための音声認識処理部14、音声を合成し
て運転席付近に設けられているスピーカ17から出力す
るための音声合成処理部16、地図情報及びルート案内
情報等をディスプレイ19に表示するための表示制御部
18、GPS(Global Positioning
System)アンテナ22及び車速センサ23から
所定のデータを受信してナビゲーションシステム10が
搭載される車両の状態を検出する車両状態検出部21、
車両状態検出部21からのデータを利用してルート案内
等のナビゲーション機能を実行するための案内処理部2
0、地図データDB26に記憶された地図データの検
索、縮尺及び表示方法等の管理を行うための地図情報管
理部25、及び地図情報管理部25を用いてルートの探
索等を行うルート探索部24等を有している。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows the basic configuration of a navigation system 10 according to the present invention. The navigation system 10 shown in FIG.
A system management unit 11 for controlling and managing the whole, a user interface management unit 12 that manages all correspondences including a voice conversation with a user, a dialogue control unit 13 for controlling a voice conversation with a user, and a unit provided near the driver's seat The voice recognition processing unit 14 for recognizing the content of the voice from the voice of the user input via the microphone 15, and the voice synthesis for synthesizing the voice and outputting it from the speaker 17 provided near the driver's seat. The processing unit 16, a display control unit 18 for displaying map information, route guidance information, and the like on the display 19, GPS (Global Positioning)
A vehicle state detection unit 21 that receives predetermined data from the antenna 22 and the vehicle speed sensor 23 to detect the state of the vehicle in which the navigation system 10 is mounted,
A guidance processing unit 2 for executing a navigation function such as route guidance using the data from the vehicle state detection unit 21.
0, a map information management unit 25 for searching the map data stored in the map data DB 26, managing the scale and display method, and a route searching unit 24 for searching for a route using the map information management unit 25. And so on.

【0022】図1において、システム管理部11、ユー
ザインターフェース管理部12、対話制御部13、音声
認識処理部14、音声合成処理部16、表示制御部1
8、案内処理部20、車両状態検出部21、ルート探索
部24、及び地図情報管理部25は、CPU及び各種メ
モリ等から構成される別個の処理回路によってそれぞれ
実現されても良いし、CPU及び各種メモリを有するコ
ンピュータ上で各処理部の演算処理のためのプログラム
を順次実行させることによって実現するようにしても良
い。
In FIG. 1, a system management unit 11, a user interface management unit 12, a dialogue control unit 13, a voice recognition processing unit 14, a voice synthesis processing unit 16, and a display control unit 1.
8, the guidance processing unit 20, the vehicle state detection unit 21, the route search unit 24, and the map information management unit 25 may be respectively realized by separate processing circuits including a CPU, various memories, and the like. It may be realized by sequentially executing a program for arithmetic processing of each processing unit on a computer having various memories.

【0023】地図データDB26には、少なくとも日本
全国をカバーし、メッシュ状に分割された複数の地図ブ
ロックからなる地図情報が記憶され、さらに同一地域に
対して縮尺の異なる複数の地図ブロックが記憶されてい
るものとする。また、地図データDB26は、CD−R
OM又はDVD−ROM等の記憶媒体及び記憶媒体から
データを読み出すためのCD−ROMドライブ又はDV
D−ROMドライブ等から構成されているものとする。
The map data DB 26 stores at least map information that covers at least the whole of Japan and is composed of a plurality of mesh-shaped map blocks, and further stores a plurality of map blocks of different scales for the same area. It is assumed that The map data DB 26 is a CD-R.
Storage medium such as OM or DVD-ROM, and CD-ROM drive or DV for reading data from the storage medium
It is assumed to be composed of a D-ROM drive or the like.

【0024】ナビゲーションシステム10は、ユーザと
の音声対話を通じて、ユーザの発話の中から目的地等の
情報を認識し、認識結果に基づいて、地図情報やルート
情報をディスプレイ19上に表示しながら、ルート案内
等のナビゲーション機能を実行する。
The navigation system 10 recognizes information such as a destination from the user's utterance through a voice dialogue with the user, and displays map information and route information on the display 19 based on the recognition result. Execute navigation functions such as route guidance.

【0025】次に、図2を用いて、ユーザインターフェ
ース管理部12において音声対話を開始してからルート
案内を開始するまでの手順について説明する。
Next, with reference to FIG. 2, the procedure from the start of the voice interaction in the user interface management unit 12 to the start of the route guidance will be described.

【0026】最初に、ナビゲーションシステム10の電
源ON又は開始操作等によって音声対話を開始する(ス
テップ201)。
First, a voice conversation is started by turning on the power of the navigation system 10 or a start operation (step 201).

【0027】次に、マイクロフォン15から入力される
ユーザの音声を音声認識部14が単語単位で認識し、対
話制御部13は音声認識処理部14の認識結果に基づい
て対話状態を決定する。ユーザインターフェース管理部
12は、対話状態及び認識結果を受信する(ステップ2
02)。対話状態及び認識結果の内容については後述す
る。
Next, the voice recognition unit 14 recognizes the user's voice input from the microphone 15 in units of words, and the dialogue control unit 13 determines the dialogue state based on the recognition result of the voice recognition processing unit 14. The user interface management unit 12 receives the dialogue state and the recognition result (step 2).
02). The contents of the dialogue state and the recognition result will be described later.

【0028】次に、ユーザインターフェース管理部12
は、ユーザとの対話が終了したか否かを確認し(ステッ
プ203)、対話が終了した場合にはステップ209
へ、対話が終了していない場合にはステップ204へ進
む。
Next, the user interface management unit 12
Confirms whether or not the dialogue with the user has ended (step 203), and if the dialogue has ended, step 209
If the dialogue has not ended, the process proceeds to step 204.

【0029】ステップ204では、ユーザインターフェ
ース管理部12は、予め定められた記憶領域(以下「ス
ロット」と言う)に、ステップ202で受信した認識結
果を格納する。スロットの構成及び格納方法については
後述する。
In step 204, the user interface management section 12 stores the recognition result received in step 202 in a predetermined storage area (hereinafter referred to as "slot"). The configuration and storage method of the slots will be described later.

【0030】次に、ユーザインターフェース管理部12
は、対話状態等に基づいて、音声対話用文書を決定し
(ステップ205)、決定した文書内容の音声出力を音
声合成処理部16に指示する(ステップ206)。指示
を受けた音声合成処理部16は、指示通りの文書を合成
し、スピーカ17から出力することとなる。音声対話用
文書の具体例等につていは後述する。
Next, the user interface management unit 12
Determines a voice dialogue document based on the dialogue state and the like (step 205), and instructs the voice synthesis processing section 16 to output the voice of the decided document contents (step 206). Upon receipt of the instruction, the voice synthesis processing unit 16 synthesizes the document according to the instruction and outputs it from the speaker 17. A concrete example of the voice dialogue document will be described later.

【0031】次に、ユーザインターフェース管理部12
は、対話状態等に基づいて、画面表示用文書を決定し
(ステップ207)、決定した文書内容の表示を表示制
御部18に指示する(ステップ208)。指示を受けた
表示制御部18は、表示制御部18は、指示通りの文書
のデータを対応するメモリ等から抽出してディスプレイ
19に表示することとなる。
Next, the user interface management unit 12
Determines a screen display document based on the dialogue state or the like (step 207) and instructs the display control unit 18 to display the decided document content (step 208). Upon receiving the instruction, the display control unit 18 extracts the data of the document according to the instruction from the corresponding memory or the like and displays it on the display 19.

【0032】このようにしてステップ202〜208が
対話終了まで繰り返される。ステップ202〜208が
繰り返されることによって、ユーザとナビゲーションシ
ステム10との間に音声による対話が進行し、ユーザイ
ンターフェース管理部12は、ナビゲーション機能の実
行に必要な認識結果を得ることができるように構成され
ている。
In this way, steps 202 to 208 are repeated until the dialogue ends. By repeating steps 202 to 208, a dialogue by voice progresses between the user and the navigation system 10, and the user interface management unit 12 is configured to obtain a recognition result necessary for executing the navigation function. Has been done.

【0033】したがって、ユーザとの対話終了後には、
ステップ209へ進み、スロットに格納された認識結果
に基づいて、実行されるナビゲーション機能が決定さ
れ、案内処理部20等にナビゲーション機能実行の指示
がなされる(ステップ210)。認識結果とナビゲーシ
ョン機能の実行との関連については後述する。
Therefore, after the end of the dialogue with the user,
In step 209, the navigation function to be executed is determined based on the recognition result stored in the slot, and the guidance processing unit 20 or the like is instructed to execute the navigation function (step 210). The relationship between the recognition result and the execution of the navigation function will be described later.

【0034】次に、図3〜図5を用いて、音声対話の進
行について説明する。図3(a)はスロット検索テーブ
ルを示しており、図3(b)はスロットを示している。
図4は、音声対話制御部13においてユーザとの音声対
話を進めるための遷移テーブルを示しており、図5は図
4の流れを図示化した対話状態の推移を示しており、図
6は文書テーブルを示している。また図4の状態番号
は、図5中の番号に対応している。なお、図3、図4及
び図6に示す各テーブル及びスロットは、ナビゲータシ
ステム10が有する各種メモリ上に予め構成されている
ものとする。
Next, the progress of the voice dialogue will be described with reference to FIGS. 3A shows a slot search table, and FIG. 3B shows slots.
FIG. 4 shows a transition table for advancing a voice dialogue with the user in the voice dialogue control unit 13, FIG. 5 shows a transition of a dialogue state which illustrates the flow of FIG. 4, and FIG. 6 shows a document. Shows the table. The state numbers in FIG. 4 correspond to the numbers in FIG. It is assumed that the tables and slots shown in FIGS. 3, 4 and 6 are preconfigured on various memories of the navigator system 10.

【0035】図3(a)はスロット検索テーブルを示し
ており、各スロット番号に対応してどのような属性を有
する単語が格納されるかを示している。例えば、スロッ
ト番号3には、都道府県名が格納され、スロット番号4
には、市区町村名が格納される。なお、図3(a)は一
例であって、種々の変更が可能である。図3(b)は、
実際のスロットに格納された認識結果を示している。即
ち、この状態ではスロット番号3には「兵庫県」との認
識結果が、スロット番号4には「明石市」という認識結
果が格納されている。この時点で何も格納されていない
スロット番号には、「0」が記載されている。
FIG. 3 (a) shows a slot search table, which shows what kind of attribute a word is stored corresponding to each slot number. For example, the slot number 3 stores the prefecture name, and the slot number 4
The city name is stored in. Note that FIG. 3A is an example, and various changes can be made. Figure 3 (b) shows
The recognition result stored in the actual slot is shown. That is, in this state, the recognition result of "Hyogo prefecture" is stored in the slot number 3, and the recognition result of "Akashi city" is stored in the slot number 4. “0” is described in the slot number in which nothing is stored at this point.

【0036】図4に示す遷移テーブルは、対話状態番号
401、遷移可能な状態数402、遷移条件403及び
遷移先404のデータから構成されている。また、図4
に示すように遷移テーブルは、対話状態を遷移(進行)
させるための役割と、対話状態と文書とを対応付けるた
めの役割を有している。
The transition table shown in FIG. 4 is composed of data of a dialogue state number 401, the number of transitionable states 402, a transition condition 403 and a transition destination 404. Also, FIG.
Transition table as shown in, transitions the dialogue state (progress)
It has a role for making the state of interaction and a role for associating the dialogue state with the document.

【0037】音声対話が開始されると、対話制御部13
が、対話状態0から音声対話を開始する(図2のステッ
プ201に対応)。すると、対話状態0が、ユーザイン
ターエース管理部12で受信される。ここでは、認識結
果が無いので、何もスロットには格納しない。ユーザイ
ンターエース管理部12は、図4に示す遷移テーブルに
応じて、対話状態0から、文書番号0を決定し、文書番
号0の「ご用件は何ですか?」の音声出力を音声合成処
理部16へ指示する。音声合成処理部16は、図6に示
す文書テーブルから文書番号0に相当する文書を合成し
てスピーカ17から出力するように処理を行う。
When the voice dialogue is started, the dialogue control unit 13
Starts a voice dialogue from the dialogue state 0 (corresponding to step 201 in FIG. 2). Then, the dialogue state 0 is received by the user interface management unit 12. Here, since there is no recognition result, nothing is stored in the slot. The user interface management unit 12 determines the document number 0 from the conversation state 0 according to the transition table shown in FIG. 4, and synthesizes the voice output of “what is your requirement?” With the document number 0. Instruct the processing unit 16. The speech synthesis processing unit 16 synthesizes the document corresponding to the document number 0 from the document table shown in FIG. 6 and outputs the synthesized document from the speaker 17.

【0038】次に、音声認識処理部14が、文書番号0
に対応したユーザの発話から単語単位で認識を行う。こ
こでは、音声認識処理部14が、「行く」という、単語
属性「動詞」の単語を認識し、対話制御部13へ認識結
果を送信したしたものとする。すると、対話制御部13
は、遷移テーブルから対話状態2へ遷移したものと判断
し、ユーザインターフェース管理部12へ、対話状態2
及び認識結果「行く」を送信する。ユーザインターフェ
ース管理部12は、受信した認識結果を図3(a)に示
すスロット検索テーブルに従って、スロットのスロット
番号1に格納する。さらに、対話状態2から文書番号2
を決定し、文書番号2の「行きたい場所を教えてくださ
い?」の音声出力を音声合成処理部16へ指示する。音
声合成処理部16は、図6に示す文書テーブルから文書
番号2に相当する文書を合成してスピーカ17から出力
するように処理を行う。
Next, the voice recognition processing unit 14 causes the document number 0
It recognizes word by word from the user's utterance corresponding to. Here, it is assumed that the voice recognition processing unit 14 recognizes the word “go” having the word attribute “verb” and transmits the recognition result to the dialogue control unit 13. Then, the dialogue control unit 13
Judges that the transition from the transition table to the interactive state 2 is made, and the user interface management unit 12 is notified to the interactive state 2
And the recognition result “go” is transmitted. The user interface management unit 12 stores the received recognition result in the slot number 1 of the slot according to the slot search table shown in FIG. Furthermore, from the dialog state 2 to the document number 2
Then, the voice synthesis processing unit 16 is instructed to output the voice of “Tell me where you want to go?” Of document number 2. The speech synthesis processing unit 16 synthesizes the document corresponding to the document number 2 from the document table shown in FIG. 6 and outputs the synthesized document from the speaker 17.

【0039】次に、音声認識処理部14が、文書番号2
に対応したユーザの発話から単語単位で認識を行う。こ
こでは、音声認識処理部14が、「兵庫県」という、単
語属性「都道府県名」の単語を認識し、対話制御部13
へ認識結果を送信したしたものとする。すると、対話制
御部13は、遷移テーブルから対話状態4へ遷移したも
のと判断し、ユーザインターフェース管理部12へ、対
話状態4及び認識結果「兵庫県」を送信する。ユーザイ
ンターフェース管理部12は、受信した認識結果を図3
(a)に示すスロット検索テーブルに従って、スロット
のスロット番号3に格納する。さらに、対話状態4から
文書番号4を決定し、文書番号4の「兵庫県の市区町村
名を教えてください?」の音声出力を音声合成処理部1
6へ指示する。音声合成処理部16は、図6に示す文書
テーブルから文書番号4に相当する文書を合成してスピ
ーカ17から出力するように処理を行う。
Next, the voice recognition processing section 14 determines the document number 2
It recognizes word by word from the user's utterance corresponding to. Here, the speech recognition processing unit 14 recognizes the word “Hyogo prefecture” having the word attribute “prefecture name”, and the dialogue control unit 13
It is assumed that the recognition result has been transmitted to. Then, the dialogue control unit 13 determines that the state has changed to the dialogue state 4 from the transition table, and transmits the dialogue state 4 and the recognition result “Hyogo prefecture” to the user interface management unit 12. The user interface management unit 12 displays the received recognition result in FIG.
It is stored in the slot number 3 of the slot according to the slot search table shown in (a). Further, the document number 4 is determined from the dialogue state 4, and the voice output of the document number 4 "Please tell me the city name of Hyogo prefecture?"
Direct to 6. The voice synthesis processing unit 16 synthesizes the document corresponding to the document number 4 from the document table shown in FIG. 6 and outputs the synthesized document from the speaker 17.

【0040】次に、音声認識処理部14が、文書番号4
に対応したユーザの発話から単語単位で認識を行う。こ
こでは、音声認識処理部14が、「明石市」という、単
語属性「市区町村名」の単語を認識し、対話制御部13
へ認識結果を送信したしたものとする。すると、対話制
御部13は、遷移テーブルから対話状態6へ遷移したも
のと判断し、ユーザインターフェース管理部12へ、対
話状態6及び認識結果「明石市」を送信する。ユーザイ
ンターフェース管理部12は、受信した認識結果を図3
(a)に示すスロット検索テーブルに従って、スロット
のスロット番号4に格納する。さらに、対話状態6から
文書番号6を決定し、文書番号6の「明石市の町名を教
えてください?」の音声出力を音声合成処理部16へ指
示する。音声合成処理部16は、図6に示す文書テーブ
ルから文書番号6に相当する文書を合成してスピーカ1
7から出力するように処理を行う。
Next, the voice recognition processing section 14 determines the document number 4
It recognizes word by word from the user's utterance corresponding to. Here, the speech recognition processing unit 14 recognizes the word “Akashi city” having the word attribute “city name”, and the dialogue control unit 13
It is assumed that the recognition result has been transmitted to. Then, the dialogue control unit 13 determines that the transition state is changed to the dialogue state 6 from the transition table, and transmits the dialogue state 6 and the recognition result “Akashi city” to the user interface management unit 12. The user interface management unit 12 displays the received recognition result in FIG.
It is stored in the slot number 4 of the slot according to the slot search table shown in (a). Further, the document number 6 is determined from the dialogue state 6, and the voice synthesis processing unit 16 is instructed to output the voice of the document number 6, "Please tell me the town name of Akashi city?" The voice synthesis processing unit 16 synthesizes the document corresponding to the document number 6 from the document table shown in FIG.
Processing is performed so that the data is output from 7.

【0041】次に、音声認識処理部14が、文書番号6
に対応したユーザの発話から単語単位で認識を行う。こ
こでは、音声認識処理部14が、「大久保町」という、
単語属性「町字名」の単語を認識し、対話制御部13へ
認識結果を送信したしたものとする。すると、対話制御
部13は、遷移テーブルから対話状態8へ遷移したもの
と判断し、ユーザインターフェース管理部12へ、対話
状態8及び認識結果「大久保町」を送信する。ユーザイ
ンターフェース管理部12は、受信した認識結果を図3
(a)に示すスロット検索テーブルに従って、スロット
のスロット番号5に格納する。さらに、対話状態8から
文書番号8を決定し、文書番号8の「大久保町の地図を
表示します」の音声出力を音声合成処理部16へ指示す
る。音声合成処理部16は、図6に示す文書テーブルか
ら文書番号8に相当する文書を合成してスピーカ17か
ら出力するように処理を行う。
Next, the voice recognition processing section 14 determines the document number 6
It recognizes word by word from the user's utterance corresponding to. Here, the voice recognition processing unit 14 calls "Okubo Town",
It is assumed that the word having the word attribute “machiji name” is recognized and the recognition result is transmitted to the dialogue control unit 13. Then, the dialogue control unit 13 determines that the transition state is changed to the dialogue state 8 from the transition table, and transmits the dialogue state 8 and the recognition result “Okubo-cho” to the user interface management unit 12. The user interface management unit 12 displays the received recognition result in FIG.
It is stored in the slot number 5 of the slot according to the slot search table shown in (a). Further, the document number 8 is determined from the dialogue state 8, and the voice synthesis processing unit 16 is instructed to output the voice of the document number 8 "Display a map of Okubo town". The speech synthesis processing unit 16 synthesizes the document corresponding to the document number 8 from the document table shown in FIG. 6 and outputs the synthesized document from the speaker 17.

【0042】次に、ユーザインターフェース管理部12
は、図4に示す遷移テーブルから音声対話が終了したも
のと判断し、その時点でスロットに格納されている認識
結果(図3(b)の状態)からナビゲーション機能を決
定する。この場合は、スロット0、3〜5の内容から、
兵庫県明石市大久保町を目的地に設定することが決定さ
れ(図2のステップ209に相当)、案内処理部20に
その旨の指示が送信される(図2のステップ210に相
当)。
Next, the user interface management unit 12
Determines from the transition table shown in FIG. 4 that the voice interaction has ended, and determines the navigation function from the recognition result (state in FIG. 3B) stored in the slot at that time. In this case, from the contents of slots 0, 3-5,
It is decided to set Okubo-cho, Akashi-shi, Hyogo as the destination (corresponding to step 209 in FIG. 2), and an instruction to that effect is transmitted to the guidance processing unit 20 (corresponding to step 210 in FIG. 2).

【0043】なお、案内処理部20では、車両状態検出
部21によってGPSアンテナ22からのデータに基づ
き車両の現在位置を求める。次に、案内処理部20は、
ルート探索部24へ、現在位置から目的地(兵庫県明石
市大久保町)までのルート探索を指示し、さらに地図情
報管理部25に対して、現在位置から目的地までの地図
情報の検索を指示する。ルート探索部24からのルート
情報及び地図情報管理部25からの地図情報を受信した
案内処理部20は、現在位置から目的地までの地図情報
中にルート情報を合わせた画像をディスプレイ19に表
示するように表示制御部18に指示する。このような流
れに従って、音声対話によってナビゲーションシステム
10が目的地情報を取得して、現在位置から目的地まで
のナビゲーション機能を実行していく。
In the guidance processing unit 20, the vehicle state detection unit 21 determines the current position of the vehicle based on the data from the GPS antenna 22. Next, the guidance processing unit 20
Instruct the route search unit 24 to search for a route from the current position to the destination (Okubo Town, Akashi City, Hyogo Prefecture), and further instruct the map information management unit 25 to search for map information from the current position to the destination. To do. Upon receiving the route information from the route search unit 24 and the map information from the map information management unit 25, the guidance processing unit 20 displays on the display 19 an image in which the route information is combined with the map information from the current position to the destination. To the display control unit 18. In accordance with such a flow, the navigation system 10 acquires the destination information by the voice interaction and executes the navigation function from the current position to the destination.

【0044】なお、図5に示すように目的地を取得する
対話の流れは1通りではなく、考えられる限り多くの流
れを用意しておくことが好ましい。例えば、対話状態2
における文章番号2の「行きたい場所を教えてください
?」の音声出力に対して、ユーザからの発話中に「兵庫
県明石市」という「都道府県名」+「市区町村名」が含
まれる場合には対話状態6へ進み、「兵庫県明石市大久
保町」という「都道府県名」+「市区町村名」+「町字
名」が含まれる場合には対話状態8へ進み、「野球場」
という「施設種類」が含まれる場合には対話状態10へ
進み、「兵庫県の野球場」という「都道府県名」+「施
設種類」が含まれる場合には対話状態12へ進み、「甲
子園」という「施設名称」が含まれる場合には対話状態
14へ進むという具合である。
As shown in FIG. 5, the flow of the dialogue for acquiring the destination is not one, and it is preferable to prepare as many flows as possible. For example, dialogue state 2
In response to the voice output of "Please tell me where you want to go?" In sentence number 2 in the text, "Prefecture name" + "City name" which is "Akashi city, Hyogo prefecture" is included during the utterance from the user. In the case, the process proceeds to the dialogue state 6, and when the “prefecture name” + “city name” + “town name” of “Okubo-cho, Akashi-shi, Hyogo” is included, the process proceeds to the dialogue state 8 and “baseball”. Place "
If the "facility type" is included, the process proceeds to the dialogue state 10, and if the "prefecture name" of "Hyogo baseball field" + "facility type" is included, the process proceeds to the dialogue state 12 and "Koshien" If the “facility name” is included, the process proceeds to the dialogue state 14.

【0045】次に、図7に示すスロット機能を用いて、
認識結果とナビゲーション機能の実行との関連について
説明する。図7に示すように、各スロット番号701
と、実行されるナビゲーション機能703とを対応付け
て予め設定しておく。ただし、ナビゲーション機能を実
行するためには複数のスロット番号にまたがる認識結果
が必要な場合には、それらを「補助機能」として、連続
したスロット番号を付与することが望ましい。例えば、
「都道府県名」、「市区町村名」及び「町字名」には、
連続した3〜5のスロット番号が付与されている。な
お、この場合、スロット番号3をチェックすれば、スロ
ット4及び5に認識結果が格納されていないことは明確
であるので、連続したスロット番号を付与することによ
って、チェックを簡素化することが可能となる。
Next, using the slot function shown in FIG.
The relationship between the recognition result and the execution of the navigation function will be described. As shown in FIG. 7, each slot number 701
And the navigation function 703 to be executed are set in advance in association with each other. However, when the recognition result spanning a plurality of slot numbers is required to execute the navigation function, it is desirable to give them consecutive slot numbers as "auxiliary functions". For example,
"Prefecture name", "City name" and "City name"
Consecutive slot numbers 3 to 5 are given. In this case, if the slot number 3 is checked, it is clear that the recognition result is not stored in the slots 4 and 5. Therefore, it is possible to simplify the check by assigning consecutive slot numbers. Becomes

【0046】また、同一のスロット番号で複数の機能を
兼用する場合には、単語によって機能の選択を判別する
ことが好ましい。さらに、例えば「はい」、「いいえ」
等の返答、「えーッと」等の間投詞、及び「わからな
い」等の単語は、ナビゲーションを動作させる上で不必
要であるので、スロットには格納しないようにすること
が好ましい。
When the same slot number is used for a plurality of functions, it is preferable to determine the function selection by words. In addition, for example, "Yes", "No"
It is preferable not to store a reply such as ",""Etto", an interjector, and a word such as "I don't know" in the slot because they are unnecessary for operating the navigation.

【0047】さらに、遷移テーブルに沿って対話を進め
ていくに際して、音声認識処理部14が認識した単語
と、地図データDB26中に記載されている単語との間
で、漢字や読み仮名との間に差がある場合には、ユーザ
インターフェース管理部12が、スロットに格納する前
に、地図データDB26中の記載に合わせて変換してお
くことが好ましい。例えば、音声認識処理部14が、
「ひょうごけん」と認識した単語を、「兵庫県」に変換
してスロットに格納することを言う。このような変換に
よって、正確な地図情報の表示やルート案内が可能とな
る。
Furthermore, when proceeding with the dialogue along the transition table, between the words recognized by the voice recognition processing unit 14 and the words described in the map data DB 26, the kanji and the kana If there is a difference between the two, it is preferable that the user interface management unit 12 performs conversion according to the description in the map data DB 26 before storing in the slot. For example, the voice recognition processing unit 14
It means that the word recognized as "Hyogoken" is converted into "Hyogo prefecture" and stored in the slot. Such conversion enables accurate display of map information and route guidance.

【0048】次に図8及び9を用いて、音声対話の進行
の他の例について説明する。図8は、ある地点を表示す
るための対話状態の推移を示しており、図9は、図8に
対応した遷移テーブル2である。遷移テーブル2は、状
態番号901、遷移可能な状態数902、遷移条件90
3及び遷移先904の項目から構成されている。
Next, another example of the progress of the voice dialogue will be described with reference to FIGS. FIG. 8 shows the transition of the dialogue state for displaying a certain point, and FIG. 9 is the transition table 2 corresponding to FIG. The transition table 2 includes a state number 901, the number of transitionable states 902, and a transition condition 90.
3 and transition destination 904.

【0049】ある状態から状態100に遷移した場合に
は、文書番号100が決定され、文書番号100に相当
する文書、即ち「住所をお話ください。」が音声合成処
理部16で合成されてスピーカ17から出力される。
When the state transitions from a certain state to the state 100, the document number 100 is determined, and the document corresponding to the document number 100, that is, "Please tell me your address." Is output from.

【0050】次に、状態101で、ユーザの発話から単
語単位の認識を行い、「兵庫県」という「県名」が認識
された場合には状態102へ、「兵庫県」+「明石市」
という、「県名」及び「市名」が認識された場合には状
態104へ、「兵庫県」+「明石市」+「大久保町」と
いう、「県名」+「市名」+「町名」が認識された場合
には状態106へ遷移する。
Next, in state 101, word-by-word recognition is performed from the user's utterance, and when the "prefecture name""Hyogoprefecture" is recognized, the state is changed to "Hyogo prefecture" + "Akashi city".
That is, when the "prefecture name" and the "city name" are recognized, go to the state 104, "Hyogo prefecture" + "Akashi city" + "Okubo town", "prefecture name" + "city name" + "town name" Is recognized, a transition is made to the state 106.

【0051】次に、状態102では、文書番号102が
決定され、文書番号102に相当する文書、即ち「兵庫
県の続きをお話ください。」が音声合成処理部16で合
成されてスピーカ17から出力される。
Next, in the state 102, the document number 102 is determined, and the document corresponding to the document number 102, that is, "Please tell me the continuation of Hyogo Prefecture." Is synthesized by the voice synthesis processing unit 16 and output from the speaker 17. To be done.

【0052】次に、状態103では、ユーザの発話から
単語単位の認識を行い、「明石市」という、「市名」が
認識された場合には状態104へ、「明石市」+「大久
保町」という、「市名」+「町名」が認識された場合に
は状態106へ遷移する。
Next, in state 103, word-by-word recognition is performed from the user's utterance, and when "city name""Akashicity" is recognized, the state is changed to "Akashi city" + "Okubo town". When “city name” + “town name” is recognized, the state 106 is entered.

【0053】次に、状態104では、状態101から状
態104へ遷移した場合には(状態101での認識単語
数=2なので)、文書番号104−1が決定され、文書
番号104−1に相当する文書、即ち「兵庫県、明石市
の続きをお話ください。」が音声合成処理部16で合成
されてスピーカ17から出力される。また、状態103
から状態104へ遷移した場合には(状態103での認
識単語数=1なので)、文書番号104−2が決定さ
れ、文書番号104−2に相当する文書、即ち「明石市
の続きをお話ください。」が音声合成処理部16で合成
されてスピーカ17から出力される。状態104では、
よりユーザとの対話をスムーズに進めるために、その1
つ前の遷移状態で、ユーザの発話から認識された単語の
数に応じて、音声対話用文書を変更するように設定され
ている。
Next, in the state 104, when the state 101 transits to the state 104 (because the number of recognized words in the state 101 = 2), the document number 104-1 is determined and corresponds to the document number 104-1. The document, that is, “Please tell me the continuation of Hyogo prefecture and Akashi city.” Is synthesized by the voice synthesis processing unit 16 and output from the speaker 17. Also, state 103
When the state changes to the state 104 (the number of words recognized in the state 103 is 1), the document number 104-2 is determined, and the document corresponding to the document number 104-2, that is, "Please tell me the continuation of Akashi City". Is synthesized by the speech synthesis processing unit 16 and output from the speaker 17. In state 104,
To facilitate the dialogue with the user more smoothly, Part 1
In the previous transition state, the voice interaction document is set to be changed according to the number of words recognized from the user's utterance.

【0054】次に、状態105では、ユーザの発話から
単語単位の認識を行い、「大久保町」という、「町名」
が認識された場合には状態106へ遷移する。
Next, in the state 105, word-by-word recognition is performed from the user's utterance, and "Okubo Town", "town name"
Is recognized, the state 106 is entered.

【0055】次に、状態106では、状態101から状
態106へ遷移した場合には(状態101での認識単語
数=3なので)、文書番号106−1が決定され、文書
番号106−1に相当する文書、即ち「兵庫県、明石
市、大久保町の続きをお話ください。」が音声合成処理
部16で合成されてスピーカ17から出力される。ま
た、状態103から状態106へ遷移した場合には(状
態103での認識単語数=2なので)、文書番号106
−2が決定され、文書番号106−2に相当する文書、
即ち「明石市、大久保町の続きをお話ください。」が音
声合成処理部16で合成されてスピーカ17から出力さ
れる。さらに、状態105から状態106へ遷移した場
合には(状態105での認識単語数=1なので)、文書
番号106−3が決定され、文書番号106−3に相当
する文書、即ち「大久保町の続きをお話ください。」が
音声合成処理部16で合成されてスピーカ17から出力
される。このように、状態106では、よりユーザとの
対話をスムーズに進めるために、その1つ前の遷移状態
で、ユーザの発話から認識された単語の数に応じて、音
声対話用文書を変更するように設定されている。
Next, in the state 106, when the state 101 transits to the state 106 (because the number of recognized words in the state 101 = 3), the document number 106-1 is determined and corresponds to the document number 106-1. That is, the document, that is, “Please tell me the continuation of Hyogo prefecture, Akashi city, Okubo town.” Is synthesized by the voice synthesis processing unit 16 and output from the speaker 17. When the state 103 transits to the state 106 (because the number of recognized words in the state 103 = 2), the document number 106
-2 is determined, and the document corresponding to the document number 106-2,
That is, “Please tell me about the continuation of Akoku City and Okubo Town.” Is synthesized by the voice synthesis processing unit 16 and output from the speaker 17. Further, when the state 105 is changed to the state 106 (the number of recognized words in the state 105 = 1), the document number 106-3 is determined, and the document corresponding to the document number 106-3, that is, “Okubo-machi "Please tell me more." Is synthesized by the voice synthesis processing unit 16 and output from the speaker 17. As described above, in the state 106, in order to further smoothly advance the dialogue with the user, the speech dialogue document is changed in accordance with the number of words recognized from the utterance of the user in the previous transition state. Is set.

【0056】図8及び9に示す例のように、一つの対話
状態に対して複数の文書が対応している場合には、認識
結果の単語数に応じて音声案内文書を決定することもで
きる。
When a plurality of documents correspond to one dialogue state as in the examples shown in FIGS. 8 and 9, the voice guidance document can be determined according to the number of words in the recognition result. .

【0057】次に図10及び11を用いて、音声対話の
進行の更に他の例について説明する。図10は、認識エ
ラーが発生した場合の対話状態の推移を示しており、図
11は図10に対応した遷移テーブル3である。遷移テ
ーブル3は、状態番号1101、遷移可能な状態数11
02、遷移条件1103及び遷移先1104の項目から
構成されている。
Next, still another example of the progress of the voice dialogue will be described with reference to FIGS. FIG. 10 shows the transition of the dialogue state when a recognition error occurs, and FIG. 11 is the transition table 3 corresponding to FIG. The transition table 3 includes a state number 1101 and a transitionable state number 11
02, transition condition 1103, and transition destination 1104.

【0058】ある状態から状態200に遷移した場合に
は、文書番号200が決定され、文書番号200に相当
する文書、即ち「住所をお話ください。」が音声合成処
理部16で合成されてスピーカ17から出力される。
When the state transitions from a certain state to the state 200, the document number 200 is determined, and the document corresponding to the document number 200, that is, "please tell me your address." Is output from.

【0059】次に、状態101で、ユーザの発話から単
語単位の認識を行い、「兵庫県」という「県名」が認識
された場合には状態202へ、認識エラーが発生した場
合には、状態204へ遷移する。
Next, in the state 101, the recognition of each word is performed from the user's utterance, and when the "prefecture name""Hyogoprefecture" is recognized, the state goes to the state 202, and when the recognition error occurs, Transition to state 204.

【0060】次に、状態204では、エラーカウント=
1として、文書番号204−1が決定され、文書番号2
04−1に相当する文書、即ち「もう一度大きい(小さ
い)声でお話ください。」が音声合成処理部16で合成
されてスピーカ17から出力されて、状態200へ再度
遷移する。
Next, in the state 204, the error count =
The document number 204-1 is determined as 1, and the document number 2
The document corresponding to 04-1, that is, "Please speak with a loud voice again" is synthesized by the voice synthesis processing unit 16 and output from the speaker 17, and the state 200 is transited again.

【0061】もし、再度状態201で認識エラーが発生
した場合には、エラーカウント=2として、文書番号2
04−2が決定され、文書番号204−2に相当する文
書、即ち「もう少し大きい(小さい)声でお話くださ
い。」が音声合成処理部16で合成されてスピーカ17
から出力されて、状態200へ再度遷移する。
If a recognition error occurs again in the state 201, the error count = 2 and the document number 2 is set.
04-2 is determined, the document corresponding to the document number 204-2, that is, "please speak in a slightly louder (smaller) voice." Is synthesized by the speech synthesis processing unit 16 and the speaker 17 is produced.
, And the state transits to the state 200 again.

【0062】このように、認識エラーの発生回数に応じ
て、音声案内文書を音声対話用文書を変更するように設
定されている。なお、ここでは、2通りの音声案内文書
を示したが、認識エラー回数に応じて、更に多くの音声
認識文書を設けることのできる。
As described above, the voice guidance document is set to be changed to the voice dialogue document according to the number of occurrences of the recognition error. Although two types of voice guidance documents are shown here, more voice recognition documents can be provided according to the number of recognition errors.

【0063】図10及び11に示す例のように、一つの
対話状態に対して複数の文書が対応している場合には、
単語認識のエラー、特にエラー回数に応じて音声案内文
書を決定することもできる。
When a plurality of documents correspond to one dialogue state, as in the examples shown in FIGS. 10 and 11,
It is also possible to determine the voice guidance document according to an error in word recognition, particularly the number of errors.

【0064】さらに、認識エラーの種類、例えばユーザ
の発話が大きすぎる場合、ユーザの発話が小さすぎる場
合、発話のタイミングが早い場合、発話のタイミングが
遅い場合、及び周囲の雑音が大きい場合等に応じて、音
声案内文書を変更するように設定しても良い。その場
合、発話が大きすぎる場合には、小さな声で話すよう
に、発話が小さすぎる場合には、大きな声で話すような
音声案内文書が選択される。
Further, when the type of recognition error, for example, the user's utterance is too large, the user's utterance is too small, the utterance timing is early, the utterance timing is late, or the surrounding noise is large, etc. Accordingly, the voice guidance document may be set to be changed. In that case, if the utterance is too loud, the voice guidance document is selected so that it is spoken in a low voice, and if the utterance is too low, a voice guidance document that is spoken in a loud voice is selected.

【0065】上記説明においては、ユーザインターフェ
ース管理部12が、音声案内用文書及び画面表示用文書
を決定する場合について述べてきたが、対話制御部13
において、音声案内用文書及び画面表示用文書を決定す
るように構成しても良い。図12は、対話制御部13
が、音声案内用文書及び画面表示用文書を決定するよう
に構成した別の手順を示している。以下、図12に示す
手順について説明する。
In the above description, the case where the user interface management unit 12 determines the voice guidance document and the screen display document has been described.
In the above, the voice guidance document and the screen display document may be determined. FIG. 12 shows the dialogue control unit 13.
Shows another procedure configured to determine the voice guidance document and the screen display document. The procedure shown in FIG. 12 will be described below.

【0066】最初に、ナビゲーションシステム10の電
源ON又は対話開始ボタンの押下等によって音声対話を
開始する(ステップ1201)。
First, a voice dialogue is started by turning on the power of the navigation system 10 or pressing a dialogue start button (step 1201).

【0067】次に、マイクロフォン15から入力される
ユーザの音声を音声認識部14が単語単位で認識し、対
話制御部13は音声認識処理部14の認識結果を受信す
る(ステップ1202)。
Next, the voice recognition unit 14 recognizes the user's voice input from the microphone 15 in units of words, and the dialogue control unit 13 receives the recognition result of the voice recognition processing unit 14 (step 1202).

【0068】次に対話制御部13は、認識結果に基づい
て対話状態を決定する(ステップ1203)。
Next, the dialogue control unit 13 determines the dialogue state based on the recognition result (step 1203).

【0069】次に、対話制御部13は、対話状態及び認
識結果から、遷移テーブル(図4参照)を利用して、音
声対話用文書を決定する(ステップ1204)。さら
に、対話制御部13は、対話状態及び認識結果から、画
面表示用文書を決定する(ステップ1205)。
Next, the dialogue control unit 13 determines a voice dialogue document from the dialogue state and the recognition result by using the transition table (see FIG. 4) (step 1204). Further, the dialogue control unit 13 determines the screen display document from the dialogue state and the recognition result (step 1205).

【0070】次に、対話制御部13は、ユーザインター
フェース管理部12へ、認識結果、決定した音声案内文
書及び画面表示用文書を送信する(ステップ120
6)。ユーザインターフェース管理部12では、受信し
た音声案内文書及び画面表示用文書に基づいて、音声出
力及び画面表示を行い、受信した認識結果をスロットに
格納する。
Next, the dialogue control section 13 transmits the recognition result, the decided voice guidance document and the screen display document to the user interface management section 12 (step 120).
6). The user interface management unit 12 performs voice output and screen display based on the received voice guidance document and screen display document, and stores the received recognition result in the slot.

【0071】次に、対話制御部13は、ユーザとの対話
が終了したか否かを判断し(ステップ1207)、対話
の終了により一連の流れを終了する。また、対話が終了
されていなければ、再度ステップ1202〜1206を
繰り返す。このようなステップを繰り返すことによっ
て、ユーザインターフェース管理部12は、スロットに
認識結果を格納し、図2に示した手順と同様に、ナビゲ
ーション機能を実行していく。
Next, the dialogue control unit 13 determines whether or not the dialogue with the user has ended (step 1207) and ends the series of flows upon the end of the dialogue. If the dialogue has not ended, steps 1202-1206 are repeated again. By repeating such steps, the user interface management unit 12 stores the recognition result in the slot and executes the navigation function as in the procedure shown in FIG.

【0072】[0072]

【発明の効果】本発明に従ったナビゲーションシステム
における音声対話インターフェース処理方法を用いれ
ば、適切な音声案内及び画面表示案内をユーザに提供す
ることで、適切な発話を促すことができる。
By using the voice interactive interface processing method in the navigation system according to the present invention, it is possible to prompt the user to speak appropriately by providing the user with appropriate voice guidance and screen display guidance.

【0073】また、本発明に従ったナビゲーションシス
テムにおける音声対話インターフェース処理方法を用い
れば、ユーザが任意に対話を進めても、ランダムに得ら
れる発話からの音声認識結果に基づいてナビゲーション
機能の動作に必要な情報を確実に抽出することができ
る。
Further, by using the voice interaction interface processing method in the navigation system according to the present invention, even if the user arbitrarily advances the dialogue, the operation of the navigation function can be performed based on the voice recognition result from the utterance randomly obtained. Necessary information can be surely extracted.

【0074】さらに、本発明に従ったナビゲーションシ
ステムにおける音声対話インターフェース処理方法を用
いれば、スロットへの認識結果の格納状態をチェックす
ることによって、実行するナビゲーション機能を選択す
るようにしたので、処理手順の簡素化及び処理時間の短
縮化を図ることができる。
Further, when the voice interactive interface processing method in the navigation system according to the present invention is used, the navigation function to be executed is selected by checking the storage state of the recognition result in the slot. And the processing time can be shortened.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を実施するためのナビゲーションシステ
ムの概略を示す図である。
FIG. 1 is a diagram showing an outline of a navigation system for carrying out the present invention.

【図2】本発明に従った音声対話インターフェース処理
方法の手順の一例を示す図である。
FIG. 2 is a diagram showing an example of a procedure of a voice interaction interface processing method according to the present invention.

【図3】(a)はスロット検索テーブル示す図、(b)
はスロットに格納された認識結果の一例を示す図であ
る。
FIG. 3A is a diagram showing a slot search table, and FIG.
FIG. 6 is a diagram showing an example of a recognition result stored in a slot.

【図4】音声対話インターフェース処理方法に対応した
遷移テーブルの一例を示す図である。
FIG. 4 is a diagram showing an example of a transition table corresponding to a voice interaction interface processing method.

【図5】音声対話インターフェース処理方法に対応した
対話状態の推移の一例を示す図である。
FIG. 5 is a diagram showing an example of transition of a dialogue state corresponding to a voice dialogue interface processing method.

【図6】音声対話インターフェース処理方法に対応した
文書テーブルの一例を示す図である。
FIG. 6 is a diagram showing an example of a document table corresponding to a voice interactive interface processing method.

【図7】音声対話インターフェース処理方法に対応した
スロット機能の一例を示す図である。
FIG. 7 is a diagram showing an example of a slot function corresponding to a voice interaction interface processing method.

【図8】音声対話インターフェース処理方法に対応した
対話状態の他の一例を示す図である。
FIG. 8 is a diagram showing another example of a dialogue state corresponding to the voice dialogue interface processing method.

【図9】図8に対応した遷移テーブルの一例を示す図で
ある。
9 is a diagram showing an example of a transition table corresponding to FIG.

【図10】音声対話インターフェース処理方法に対応し
た対話状態の更に他の一例を示す図である。
FIG. 10 is a diagram showing still another example of a dialogue state corresponding to the voice dialogue interface processing method.

【図11】図10に対応した遷移テーブルの一例を示す
図である。
11 is a diagram showing an example of a transition table corresponding to FIG.

【図12】本発明に従った音声対話インターフェース処
理方法の手順の他の一例を示す図である。
FIG. 12 is a diagram showing another example of the procedure of the voice interaction interface processing method according to the present invention.

【符号の説明】[Explanation of symbols]

10…音声対話型ナビゲーションシステム 11…システム管理部 12…ユーザインターフェース管理部 13…対話制御部 14…音声認識処理部 15…マイクロフォン 16…音声合成処理部 17…スピーカ 18…表示制御部 19…ディスプレイ 20…案内処理部 21…車両状態検出部 22…GPSアンテナ 23…車速センサ 24…ルート探索部 25…地図情報管理部 26…地図データDB 10 ... Voice interactive navigation system 11 ... System management department 12 ... User interface management unit 13 ... Dialogue control unit 14 ... Voice recognition processing unit 15 ... Microphone 16 ... Speech synthesis processing unit 17 ... speaker 18 ... Display control unit 19 ... Display 20 ... Guidance processor 21 ... Vehicle state detection unit 22 ... GPS antenna 23 ... Vehicle speed sensor 24 ... Route search unit 25 ... Map Information Management Department 26 ... Map data DB

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/00 G10L 3/00 571U 15/18 561D 15/22 Q 15/28 537E Fターム(参考) 2C032 HB02 HB05 HB22 HC08 HC16 HC31 HD03 HD12 2F029 AA02 AB07 AC02 AC14 AC18 5D015 KK01 KK04 LL06 LL07 5D045 AB17 5H180 AA01 BB13 EE01 FF05 FF22 FF25 FF27 FF32 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G10L 13/00 G10L 3/00 571U 15/18 561D 15/22 Q 15/28 537E F term (reference) 2C032 HB02 HB05 HB22 HC08 HC16 HC31 HD03 HD12 2F029 AA02 AB07 AC02 AC14 AC18 5D015 KK01 KK04 LL06 LL07 5D045 AB17 5H180 AA01 BB13 EE01 FF05 FF22 FF25 FF27 FF32

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 表示部と、マイクロフォンから入力され
た音声を認識して単語単位の認識結果を出力する音声認
識処理部と、前記認識結果に応じて対話状態を判断しな
がらユーザとの対話制御を行う音声対話制御部と、音声
案内を出力する音声合成処理部と、ナビゲーション機能
を実行するための案内処理部と、ユーザインターフェー
ス管理部とを有するナビゲーションシステムにおいて、
前記ユーザインターフェース管理部は、 前記対話状態に応じて音声案内用文書及び画面表示用文
書を決定し、 前記音声合成処理部から前記音声案内用文書による音声
案内出力を行い、 前記表示部に前記画面表示用文書を表示し、 前記認識結果及び前記対話状態応じて、前記案内処理部
によるナビゲーション機能を実行させることを特徴とす
るナビゲーションシステムにおける音声対話インターフ
ェース処理方法。
1. A display unit, a voice recognition processing unit for recognizing a voice input from a microphone and outputting a recognition result in word units, and a dialogue control with a user while judging a dialogue state according to the recognition result. In a navigation system having a voice interaction control unit for performing, a voice synthesis processing unit for outputting voice guidance, a guidance processing unit for executing a navigation function, and a user interface management unit,
The user interface management unit determines a voice guidance document and a screen display document according to the dialogue state, outputs voice guidance output from the voice synthesis processing unit using the voice guidance document, and displays the screen on the display unit. A voice interaction interface processing method in a navigation system, wherein a display document is displayed, and a navigation function by the guidance processing unit is executed according to the recognition result and the interaction state.
【請求項2】 前記ユーザインターフェース管理部は、
対話状態と文書とを対応付けたテーブルを用いて、前記
音声案内用文書を決定する請求項1に記載のナビゲーシ
ョンシステムにおける音声対話インターフェース処理方
法。
2. The user interface management unit,
The voice interaction interface processing method in a navigation system according to claim 1, wherein the voice guidance document is determined using a table in which a dialogue state and a document are associated with each other.
【請求項3】 前記ユーザインターフェース管理部は、
前記テーブルが同一の対話状態に対して複数の文書が対
応している場合には、前記認識結果の単語数に応じて、
前記音声案内用文書を決定する請求項2に記載のナビゲ
ーションシステムにおける音声対話インターフェース処
理方法。
3. The user interface management unit,
When a plurality of documents correspond to the same conversation state in the table, depending on the number of words of the recognition result,
The voice interaction interface processing method in the navigation system according to claim 2, wherein the voice guidance document is determined.
【請求項4】 前記ユーザインターフェース管理部は、
前記テーブルが同一の対話状態に対して複数の文書が対
応している場合には、前記認識結果の単語属性に応じ
て、前記音声案内用文書を決定する請求項2に記載のナ
ビゲーションシステムにおける音声対話インターフェー
ス処理方法。
4. The user interface management unit comprises:
The voice in the navigation system according to claim 2, wherein when a plurality of documents correspond to the same conversation state in the table, the voice guidance document is determined according to the word attribute of the recognition result. Interactive interface processing method.
【請求項5】 前記ユーザインターフェース管理部は、
前記テーブルが同一の対話状態に対して複数の文書が対
応している場合には、前記認識結果の単語認識エラーに
応じて、前記音声案内用文書を決定する請求項2に記載
のナビゲーションシステムにおける音声対話インターフ
ェース処理方法。
5. The user interface management unit comprises:
The navigation system according to claim 2, wherein when a plurality of documents correspond to the same conversation state in the table, the voice guidance document is determined according to a word recognition error of the recognition result. Spoken dialogue interface processing method.
【請求項6】 前記ユーザインターフェース管理部は、
前記テーブルが同一の対話状態に対して複数の文書が対
応している場合には、前記認識結果の単語認識エラーの
回数に応じて、前記音声案内用文書を決定する請求項2
に記載のナビゲーションシステムにおける音声対話イン
ターフェース処理方法。
6. The user interface management unit comprises:
3. The voice guidance document is determined according to the number of word recognition errors in the recognition result when a plurality of documents correspond to the same dialogue state in the table.
A method for processing a voice interaction interface in the navigation system according to claim 1.
【請求項7】 前記ユーザインターフェース管理部は、
対話状態と文書とを対応付けたテーブルを用いて、前記
画面表示用文書を決定する請求項1に記載のナビゲーシ
ョンシステムにおける音声対話インターフェース処理方
法。
7. The user interface management unit comprises:
The method according to claim 1, wherein the screen display document is determined using a table in which a dialog state and a document are associated with each other.
【請求項8】 前記ユーザインターフェース管理部は、
前記テーブルが同一の対話状態に対して複数の文書が対
応している場合には、前記認識結果の単語数に応じて、
前記画面表示用文書を決定する請求項7に記載のナビゲ
ーションシステムにおける音声対話インターフェース処
理方法。
8. The user interface management unit comprises:
When a plurality of documents correspond to the same conversation state in the table, depending on the number of words of the recognition result,
The method according to claim 7, wherein the screen display document is determined.
【請求項9】 前記ユーザインターフェース管理部は、
前記テーブルが同一の対話状態に対して複数の文書が対
応している場合には、前記認識結果の単語属性に応じ
て、前記画面表示用文書を決定する請求項7に記載のナ
ビゲーションシステムにおける音声対話インターフェー
ス処理方法。
9. The user interface management unit comprises:
The voice in the navigation system according to claim 7, wherein when a plurality of documents correspond to the same conversation state in the table, the screen display document is determined according to the word attribute of the recognition result. Interactive interface processing method.
【請求項10】 前記ユーザインターフェース管理部
は、前記テーブルが同一の対話状態に対して複数の文書
が対応している場合には、前記認識結果の単語認識エラ
ーに応じて、前記画面表示用文書を決定する請求項7に
記載のナビゲーションシステムにおける音声対話インタ
ーフェース処理方法。
10. The user interface management unit, according to the word recognition error of the recognition result, when the plurality of documents correspond to the same dialogue state in the table, the screen display document. The voice interaction interface processing method in the navigation system according to claim 7, wherein
【請求項11】 前記ユーザインターフェース管理部
は、前記テーブルが同一の対話状態に対して複数の文書
が対応している場合には、前記認識結果の単語認識エラ
ーの回数に応じて、前記画面表示用文書を決定する請求
項7に記載のナビゲーションシステムにおける音声対話
インターフェース処理方法。
11. The user interface management unit displays the screen according to the number of word recognition errors in the recognition result when a plurality of documents correspond to the same conversation state in the table. The method for processing a voice interaction interface in a navigation system according to claim 7, wherein a document to be used is determined.
【請求項12】 前記ユーザインターフェース管理部
は、前記認識結果の単語属性に応じて、予め定められた
記憶領域に前記認識結果を格納する請求項1に記載のナ
ビゲーションシステムにおける音声対話インターフェー
ス処理方法。
12. The voice interaction interface processing method according to claim 1, wherein the user interface management unit stores the recognition result in a predetermined storage area according to the word attribute of the recognition result.
【請求項13】 前記ユーザインターフェース管理部
は、前記認識結果の単語属性が前記案内処理部によるナ
ビゲーション機能の実行に不必要な場合は、前記認識結
果を前記記憶領域に格納しない請求項12に記載のナビ
ゲーションシステムにおける音声対話インターフェース
処理方法。
13. The user interface management unit does not store the recognition result in the storage area if the word attribute of the recognition result is not necessary for the navigation function to be executed by the guidance processing unit. Spoken Dialogue Interface Processing Method in Navigation System of Japan.
【請求項14】 前記ユーザインターフェース管理部
は、前記対話制御部による対話終了後に、前記記憶領域
をチェックし、前記認識結果が格納されている記憶領域
に応じて、前記案内処理部によるナビゲーション機能を
実行させる請求項12に記載のナビゲーションシステム
における音声対話インターフェース処理方法。
14. The user interface management unit checks the storage area after the dialogue control section finishes the dialogue, and determines the navigation function of the guidance processing section according to the storage area in which the recognition result is stored. The voice interaction interface processing method in the navigation system according to claim 12, which is executed.
【請求項15】 前記ユーザインターフェース管理部
は、前記案内処理部によるナビゲーション機能の実行の
ために複数の認識結果が必要な場合には、前記複数の認
識結果を格納するために連続した複数の記憶領域を設定
する請求項12に記載のナビゲーションシステムにおけ
る音声対話インターフェース処理方法。
15. The user interface management unit, when a plurality of recognition results are required for execution of a navigation function by the guidance processing unit, stores a plurality of consecutive storages for storing the plurality of recognition results. The voice interaction interface processing method in the navigation system according to claim 12, wherein an area is set.
【請求項16】 前記ユーザインターフェース管理部
は、前記対話制御部による対話終了後に、前記記憶領域
をチェックし、前記連続した複数の記憶領域の先頭に認
識結果が格納されていなければ、その後の記憶領域にも
認識結果が格納されていないものと判断する請求項15
に記載のナビゲーションシステムにおける音声対話イン
ターフェース処理方法。
16. The user interface management unit checks the storage area after the dialogue control section finishes the dialogue, and if a recognition result is not stored at the beginning of the plurality of consecutive storage areas, the subsequent storage is stored. 16. It is determined that the recognition result is not stored in the area as well.
A method for processing a voice interaction interface in the navigation system according to claim 1.
【請求項17】 前記ナビゲーションシステムは、前記
案内処理部によるナビゲーション機能の実行のためのデ
ータベースを更に有し、前記ユーザインターフェース管
理部は、前記認識結果を前記データベースの表記に変換
する請求項1〜17の何れか一項に記載のナビゲーショ
ンシステムにおける音声対話インターフェース処理方
法。
17. The navigation system further includes a database for executing the navigation function by the guidance processing unit, and the user interface management unit converts the recognition result into a notation of the database. 18. A voice interaction interface processing method in the navigation system according to any one of 17 above.
【請求項18】 表示部と、マイクロフォンから入力さ
れた音声を認識して単語単位の認識結果を出力する音声
認識処理部と、前記認識結果に応じて対話状態を判断し
ながらユーザとの対話制御を行う音声対話制御部と、音
声案内を出力する音声合成処理部と、ナビゲーション機
能を実行するための案内処理部と、ユーザインターフェ
ース管理部とを有するナビゲーションシステムにおい
て、 前記音声対話制御部は、前記対話状態に応じて音声案内
用文書及び画面表示用文書を決定し、 前記ユーザインターフェース管理部は、前記音声合成処
理部から前記音声案内用文書による音声案内出力を行
い、前記表示部に前記画面表示用文書を表示し、前記認
識結果及び前記対話状態応じて、前記案内処理部による
ナビゲーション機能を実行させることを特徴とするナビ
ゲーションシステムにおける音声対話インターフェース
処理方法。
18. A display unit, a voice recognition processing unit for recognizing voice input from a microphone and outputting a recognition result in word units, and a dialogue control with a user while judging a dialogue state according to the recognition result. In a navigation system having a voice interaction control unit for performing, a voice synthesis processing unit for outputting voice guidance, a guidance processing unit for executing a navigation function, and a user interface management unit, the voice interaction control unit is the The voice guidance document and the screen display document are determined according to the dialogue state, the user interface management unit outputs voice guidance based on the voice guidance document from the voice synthesis processing unit, and displays the screen on the display unit. A document for display is displayed, and the navigation function by the guidance processing unit is executed according to the recognition result and the dialogue state. Spoken dialogue interface processing method in a navigation system according to claim.
JP2001215962A 2001-07-16 2001-07-16 Voice interactive interface processing method in navigation system Withdrawn JP2003029778A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001215962A JP2003029778A (en) 2001-07-16 2001-07-16 Voice interactive interface processing method in navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001215962A JP2003029778A (en) 2001-07-16 2001-07-16 Voice interactive interface processing method in navigation system

Publications (1)

Publication Number Publication Date
JP2003029778A true JP2003029778A (en) 2003-01-31

Family

ID=19050501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001215962A Withdrawn JP2003029778A (en) 2001-07-16 2001-07-16 Voice interactive interface processing method in navigation system

Country Status (1)

Country Link
JP (1) JP2003029778A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005064275A1 (en) * 2003-12-26 2005-07-14 Matsushita Electric Industrial Co., Ltd. Navigation device
WO2008111217A1 (en) * 2007-03-15 2008-09-18 Olympus Medical Systems Corp. Operation system-controlling apparatus and operation system- controlling method
WO2009004750A1 (en) * 2007-07-02 2009-01-08 Mitsubishi Electric Corporation Voice recognizing apparatus
US8010368B2 (en) 2005-12-28 2011-08-30 Olympus Medical Systems Corp. Surgical system controlling apparatus and surgical system controlling method
TWI382157B (en) * 2008-09-26 2013-01-11 Mitac Int Corp Portable navigation device providing conversational system and processing method therefor
CN109147781A (en) * 2007-12-11 2019-01-04 声钰科技 The method and system of vehicle-mounted service is provided by natural language speech user interface
CN109243463A (en) * 2017-07-10 2019-01-18 三星电子株式会社 Remote controler and its method for receiving user speech

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005064275A1 (en) * 2003-12-26 2005-07-14 Matsushita Electric Industrial Co., Ltd. Navigation device
US8010368B2 (en) 2005-12-28 2011-08-30 Olympus Medical Systems Corp. Surgical system controlling apparatus and surgical system controlling method
WO2008111217A1 (en) * 2007-03-15 2008-09-18 Olympus Medical Systems Corp. Operation system-controlling apparatus and operation system- controlling method
EP2124222A4 (en) * 2007-03-15 2015-03-18 Olympus Medical Systems Corp Operation system-controlling apparatus and operation system- controlling method
WO2009004750A1 (en) * 2007-07-02 2009-01-08 Mitsubishi Electric Corporation Voice recognizing apparatus
JP4859982B2 (en) * 2007-07-02 2012-01-25 三菱電機株式会社 Voice recognition device
US8407051B2 (en) 2007-07-02 2013-03-26 Mitsubishi Electric Corporation Speech recognizing apparatus
CN109147781A (en) * 2007-12-11 2019-01-04 声钰科技 The method and system of vehicle-mounted service is provided by natural language speech user interface
TWI382157B (en) * 2008-09-26 2013-01-11 Mitac Int Corp Portable navigation device providing conversational system and processing method therefor
CN109243463A (en) * 2017-07-10 2019-01-18 三星电子株式会社 Remote controler and its method for receiving user speech
CN109243463B (en) * 2017-07-10 2023-12-05 三星电子株式会社 Remote controller and method for receiving user voice thereof

Similar Documents

Publication Publication Date Title
JP4270611B2 (en) Input system
US6067521A (en) Interrupt correction of speech recognition for a navigation device
US6978237B2 (en) Speech recognition support method and apparatus
US20070156331A1 (en) Navigation device
EP1273887A2 (en) Navigation system
JP4642953B2 (en) Voice search device and voice recognition navigation device
JP2003029778A (en) Voice interactive interface processing method in navigation system
JP2000338993A (en) Voice recognition device and navigation system using this device
JP5455355B2 (en) Speech recognition apparatus and program
JP3890774B2 (en) Navigation system
JP2001027540A (en) Navigation method to use function of voice recognition
US6687604B2 (en) Apparatus providing audio manipulation phrase corresponding to input manipulation
JP3818352B2 (en) Navigation device and storage medium
JPH11211500A (en) Map display device
JP2002039779A (en) Navigation system
JP2003005783A (en) Navigation system and its destination input method
JPH0934491A (en) Method and device for voice synthetization and navigation system
JP2005114964A (en) Method and processor for speech recognition
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
JP2001083983A (en) Speech recognition device, recording medium having data for speech recognition recorded therein and speech recognition navigation device
JP3911835B2 (en) Voice recognition device and navigation system
JP4550207B2 (en) Voice recognition device and voice recognition navigation device
JPH08166797A (en) Voice interactive control system
JP2003150192A (en) Voice recognition device
JP4760200B2 (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080711

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090130