JP2003029778A - ナビゲーションシステムにおける音声対話インターフェース処理方法 - Google Patents

ナビゲーションシステムにおける音声対話インターフェース処理方法

Info

Publication number
JP2003029778A
JP2003029778A JP2001215962A JP2001215962A JP2003029778A JP 2003029778 A JP2003029778 A JP 2003029778A JP 2001215962 A JP2001215962 A JP 2001215962A JP 2001215962 A JP2001215962 A JP 2001215962A JP 2003029778 A JP2003029778 A JP 2003029778A
Authority
JP
Japan
Prior art keywords
voice
document
recognition result
dialogue
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001215962A
Other languages
English (en)
Inventor
Masahiro Kamiya
昌宏 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2001215962A priority Critical patent/JP2003029778A/ja
Publication of JP2003029778A publication Critical patent/JP2003029778A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 ユーザとの間で音声対話を行いながら、対話
の流れ(状況)に応じてナビゲーション機能を実行させ
ることを可能とする。 【解決手段】 表示部(19)と、マイクロフォン(1
5)から入力された音声を認識して単語単位の認識結果
を出力する音声認識処理部(14)と、認識結果に応じ
て対話状態を判断しながらユーザとの対話制御を行う音
声対話制御部(13)と、音声案内を出力する音声合成
処理部(16)と、ナビゲーション機能を実行するため
の案内処理部(20)と、ユーザインターフェース管理
部(12)とを有し、対話状態に応じて音声案内用文書
及び画面表示用文書を決定し、音声合成処理部から音声
案内用文書による音声案内出力を行い、表示部に画面表
示用文書を表示し、認識結果及び対話状態応じてナビゲ
ーション機能を実行させる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声対話を行うこ
とができる車載用のナビゲーションシステムに関する。
【0002】
【従来の技術】音声操作機能を備えた車載用のナビゲー
ションシステムが存在している。従来の音声操作機能付
きナビゲーションシステムでは、ユーザが音声入力(例
えば目的地の入力)を行うと、その入力を認識し(目的
地の認識)、認識を完了すると一旦音声入力操作を終了
し、その後認識された入力に応じてナビゲーション機能
(認識された目的地までのルート案内等)を実行してい
た。
【0003】したがって、従来のナビゲーションシステ
ムがユーザによる音声入力を誤って認識した場合や、ユ
ーザが誤って音声入力を行った場合には、最初から音声
入力操作をやり直す必要があった。例えば、ユーザが目
的地の音声入力を行ったにも拘わらず、希望した目的地
とは異なった目的地が認識され、誤った認識に基づいて
ルート案内がなされた場合には、再度目的地の音声入力
からやり直す必要があった。
【0004】実際のナビゲーション機能の実行には、様
々なパラメータ、例えば目的地の県名・市名・町名、目
的地の住所、目的地までの経由地、目的地までの行き方
(有料道路の利用等)、ルート案内の方法、地図の縮
尺、及び地図の表示方法等の設定が必要である。しかし
ながら、ナビゲーションシステムが誤ってパラメータの
認識をしてしまい、誤ったナビゲーション機能が実行さ
れた場合には、多くのパラメータの設定を最初からやり
直す必要があり、ユーザには大変な手間であった。
【0005】また、ナビゲーションシステムは、ナビゲ
ーション機能を実行するために必要な情報を、音声対話
によって得るために1通りの受け答えしかすることがで
きなかった。したがって、ユーザの発話の自由度が低
く、ユーザが希望するナビゲーション機能を設定するた
めに多くの時間を必要としていた。
【0006】
【発明が解決しようとする課題】そこで本発明は、ユー
ザとの間で音声対話を行いながら、対話の流れ(状況)
に応じてナビゲーション機能を実行させることを可能と
するナビゲーションシステムにおける音声対話インター
フェース処理方法を提供することを目的とするものであ
る。
【0007】また、本発明は、音声対話におけるユーザ
の発話の自由度を高め、対話に状態に応じたきめ細やか
な応答や案内を可能とするナビゲーションシステムにお
ける音声対話インターフェース処理方法を提供すること
を目的とするものである。
【0008】
【課題を解決するための手段】上記課題を解決するため
に、本発明に係るナビゲーションシステムにおける音声
対話インターフェース処理方法は、表示部と、マイクロ
フォンから入力された音声を認識して単語単位の認識結
果を出力する音声認識処理部と、認識結果に応じて対話
状態を判断しながらユーザとの対話制御を行う音声対話
制御部と、音声案内を出力する音声合成処理部と、ナビ
ゲーション機能を実行するための案内処理部と、ユーザ
インターフェース管理部とを有し、ユーザインターフェ
ース管理部は、対話状態応じて音声案内用文書及び画面
表示用文書を決定し、音声合成処理部から音声案内用文
書による音声案内出力を行い、表示部に画面表示用文書
を表示し、認識結果及び対話状態に応じて、案内処理部
によるナビゲーション機能を実行させることを特徴とす
る。ユーザインターフェース管理部が、対話状態に応じ
て、音声案内用文書及び画面表示用文書を決定するよう
に構成したものである。
【0009】さらに、ユーザインターフェース管理部
は、対話状態と文書とを対応付けたテーブルを用いて、
音声案内用文書又は画面表示用文書を決定することが好
ましい。対話状態と文書を対応付けた遷移テーブルを用
いて音声案内用文書又は画面表示用文書を決定するよう
に構成したものである。
【0010】さらに、ユーザインターフェース管理部
は、テーブルが同一の対話状態に対して複数の文書が対
応している場合には、認識結果の単語数に応じて、音声
案内用文書又は画面表示用文書を決定することが好まし
い。
【0011】さらに、ユーザインターフェース管理部
は、テーブルが同一の対話状態に対して複数の文書が対
応している場合には、認識結果の単語属性に応じて、音
声案内用文書又は画面表示用文書を決定することが好ま
しい。
【0012】さらに、ユーザインターフェース管理部
は、テーブルが同一の対話状態に対して複数の文書が対
応している場合には、認識結果の単語認識エラーに応じ
て、音声案内用文書又は画面表示用文書を決定すること
が好ましい。
【0013】さらに、ユーザインターフェース管理部
は、テーブルが同一の対話状態に対して複数の文書が対
応している場合には、認識結果の単語認識エラーの回数
に応じて、音声案内用文書又は画面表示用文書を決定す
ることが好ましい。
【0014】さらに、ユーザインターフェース管理部
は、認識結果の単語属性に応じて、予め定められた記憶
領域に認識結果を格納することが好ましい。予め定めら
れた記憶領域、即ちスロットに各種認識結果を格納する
ように構成したものである。
【0015】さらに、ユーザインターフェース管理部
は、認識結果の単語属性が案内処理部によるナビゲーシ
ョン機能の実行に不必要な場合は、認識結果を記憶領域
に格納しないことが好ましい。
【0016】さらに、ユーザインターフェース管理部
は、対話制御部による対話終了後に、記憶領域をチェッ
クし、認識結果が格納されている記憶領域に応じて、案
内処理部によるナビゲーション機能を実行させることが
好ましい。
【0017】さらに、ユーザインターフェース管理部
は、案内処理部によるナビゲーション機能の実行のため
に複数の認識結果が必要な場合には、複数の認識結果を
格納するために連続した複数の記憶領域を設定すること
が好ましい。
【0018】さらに、ユーザインターフェース管理部
は、対話制御部による対話終了後に、記憶領域をチェッ
クし、連続した複数の記憶領域の先頭に認識結果が格納
されていなければ、その後の記憶領域にも認識結果が格
納されていないものと判断することが好ましい。
【0019】さらに、ナビゲーションシステムは、案内
処理部によるナビゲーション機能の実行のためのデータ
ベースを更に有し、ユーザインターフェース管理部は、
認識結果をデータベースの表記に変換することが好まし
い。
【0020】また、上記課題を解決するために、本発明
に係るナビゲーションシステムにおける音声対話インタ
ーフェース処理方法は、表示部と、マイクロフォンから
入力された音声を認識して単語単位の認識結果を出力す
る音声認識処理部と、認識結果に応じて対話状態を判断
しながらユーザとの対話制御を行う音声対話制御部と、
音声案内を出力する音声合成処理部と、ナビゲーション
機能を実行するための案内処理部と、ユーザインターフ
ェース管理部とを有するナビゲーションシステムにおい
て、音声対話制御部は、対話状態応じて音声案内用文書
及び画面表示用文書を決定し、ユーザインターフェース
管理部は、音声合成処理部から音声案内用文書による音
声案内出力を行い、表示部に画面表示用文書を表示し、
認識結果及び対話状態応じて、案内処理部によるナビゲ
ーション機能を実行させることを特徴とする。ユーザイ
ンターフェース管理部ではなく、音声対話制御部が、対
話状態に応じて、音声案内用文書及び画面表示用文書を
決定するように構成したものである。
【0021】
【発明の実施の形態】図1に、本発明に係るナビゲーシ
ョンシステム10の基本構成を示す。図1に示すナビゲ
ーションシステム10は、ナビゲーションシステム10
全体を制御管理するためのシステム管理部11、ユーザ
との音声対話を含めた全ての対応を管理するユーザイン
ターフェース管理部12、ユーザとの音声対話の制御行
う対話制御部13、運転席付近に設けられたマイクロフ
ォン15を介して入力されるユーザの音声から音声の内
容を認識するための音声認識処理部14、音声を合成し
て運転席付近に設けられているスピーカ17から出力す
るための音声合成処理部16、地図情報及びルート案内
情報等をディスプレイ19に表示するための表示制御部
18、GPS(Global Positioning
System)アンテナ22及び車速センサ23から
所定のデータを受信してナビゲーションシステム10が
搭載される車両の状態を検出する車両状態検出部21、
車両状態検出部21からのデータを利用してルート案内
等のナビゲーション機能を実行するための案内処理部2
0、地図データDB26に記憶された地図データの検
索、縮尺及び表示方法等の管理を行うための地図情報管
理部25、及び地図情報管理部25を用いてルートの探
索等を行うルート探索部24等を有している。
【0022】図1において、システム管理部11、ユー
ザインターフェース管理部12、対話制御部13、音声
認識処理部14、音声合成処理部16、表示制御部1
8、案内処理部20、車両状態検出部21、ルート探索
部24、及び地図情報管理部25は、CPU及び各種メ
モリ等から構成される別個の処理回路によってそれぞれ
実現されても良いし、CPU及び各種メモリを有するコ
ンピュータ上で各処理部の演算処理のためのプログラム
を順次実行させることによって実現するようにしても良
い。
【0023】地図データDB26には、少なくとも日本
全国をカバーし、メッシュ状に分割された複数の地図ブ
ロックからなる地図情報が記憶され、さらに同一地域に
対して縮尺の異なる複数の地図ブロックが記憶されてい
るものとする。また、地図データDB26は、CD−R
OM又はDVD−ROM等の記憶媒体及び記憶媒体から
データを読み出すためのCD−ROMドライブ又はDV
D−ROMドライブ等から構成されているものとする。
【0024】ナビゲーションシステム10は、ユーザと
の音声対話を通じて、ユーザの発話の中から目的地等の
情報を認識し、認識結果に基づいて、地図情報やルート
情報をディスプレイ19上に表示しながら、ルート案内
等のナビゲーション機能を実行する。
【0025】次に、図2を用いて、ユーザインターフェ
ース管理部12において音声対話を開始してからルート
案内を開始するまでの手順について説明する。
【0026】最初に、ナビゲーションシステム10の電
源ON又は開始操作等によって音声対話を開始する(ス
テップ201)。
【0027】次に、マイクロフォン15から入力される
ユーザの音声を音声認識部14が単語単位で認識し、対
話制御部13は音声認識処理部14の認識結果に基づい
て対話状態を決定する。ユーザインターフェース管理部
12は、対話状態及び認識結果を受信する(ステップ2
02)。対話状態及び認識結果の内容については後述す
る。
【0028】次に、ユーザインターフェース管理部12
は、ユーザとの対話が終了したか否かを確認し(ステッ
プ203)、対話が終了した場合にはステップ209
へ、対話が終了していない場合にはステップ204へ進
む。
【0029】ステップ204では、ユーザインターフェ
ース管理部12は、予め定められた記憶領域(以下「ス
ロット」と言う)に、ステップ202で受信した認識結
果を格納する。スロットの構成及び格納方法については
後述する。
【0030】次に、ユーザインターフェース管理部12
は、対話状態等に基づいて、音声対話用文書を決定し
(ステップ205)、決定した文書内容の音声出力を音
声合成処理部16に指示する(ステップ206)。指示
を受けた音声合成処理部16は、指示通りの文書を合成
し、スピーカ17から出力することとなる。音声対話用
文書の具体例等につていは後述する。
【0031】次に、ユーザインターフェース管理部12
は、対話状態等に基づいて、画面表示用文書を決定し
(ステップ207)、決定した文書内容の表示を表示制
御部18に指示する(ステップ208)。指示を受けた
表示制御部18は、表示制御部18は、指示通りの文書
のデータを対応するメモリ等から抽出してディスプレイ
19に表示することとなる。
【0032】このようにしてステップ202〜208が
対話終了まで繰り返される。ステップ202〜208が
繰り返されることによって、ユーザとナビゲーションシ
ステム10との間に音声による対話が進行し、ユーザイ
ンターフェース管理部12は、ナビゲーション機能の実
行に必要な認識結果を得ることができるように構成され
ている。
【0033】したがって、ユーザとの対話終了後には、
ステップ209へ進み、スロットに格納された認識結果
に基づいて、実行されるナビゲーション機能が決定さ
れ、案内処理部20等にナビゲーション機能実行の指示
がなされる(ステップ210)。認識結果とナビゲーシ
ョン機能の実行との関連については後述する。
【0034】次に、図3〜図5を用いて、音声対話の進
行について説明する。図3(a)はスロット検索テーブ
ルを示しており、図3(b)はスロットを示している。
図4は、音声対話制御部13においてユーザとの音声対
話を進めるための遷移テーブルを示しており、図5は図
4の流れを図示化した対話状態の推移を示しており、図
6は文書テーブルを示している。また図4の状態番号
は、図5中の番号に対応している。なお、図3、図4及
び図6に示す各テーブル及びスロットは、ナビゲータシ
ステム10が有する各種メモリ上に予め構成されている
ものとする。
【0035】図3(a)はスロット検索テーブルを示し
ており、各スロット番号に対応してどのような属性を有
する単語が格納されるかを示している。例えば、スロッ
ト番号3には、都道府県名が格納され、スロット番号4
には、市区町村名が格納される。なお、図3(a)は一
例であって、種々の変更が可能である。図3(b)は、
実際のスロットに格納された認識結果を示している。即
ち、この状態ではスロット番号3には「兵庫県」との認
識結果が、スロット番号4には「明石市」という認識結
果が格納されている。この時点で何も格納されていない
スロット番号には、「0」が記載されている。
【0036】図4に示す遷移テーブルは、対話状態番号
401、遷移可能な状態数402、遷移条件403及び
遷移先404のデータから構成されている。また、図4
に示すように遷移テーブルは、対話状態を遷移(進行)
させるための役割と、対話状態と文書とを対応付けるた
めの役割を有している。
【0037】音声対話が開始されると、対話制御部13
が、対話状態0から音声対話を開始する(図2のステッ
プ201に対応)。すると、対話状態0が、ユーザイン
ターエース管理部12で受信される。ここでは、認識結
果が無いので、何もスロットには格納しない。ユーザイ
ンターエース管理部12は、図4に示す遷移テーブルに
応じて、対話状態0から、文書番号0を決定し、文書番
号0の「ご用件は何ですか?」の音声出力を音声合成処
理部16へ指示する。音声合成処理部16は、図6に示
す文書テーブルから文書番号0に相当する文書を合成し
てスピーカ17から出力するように処理を行う。
【0038】次に、音声認識処理部14が、文書番号0
に対応したユーザの発話から単語単位で認識を行う。こ
こでは、音声認識処理部14が、「行く」という、単語
属性「動詞」の単語を認識し、対話制御部13へ認識結
果を送信したしたものとする。すると、対話制御部13
は、遷移テーブルから対話状態2へ遷移したものと判断
し、ユーザインターフェース管理部12へ、対話状態2
及び認識結果「行く」を送信する。ユーザインターフェ
ース管理部12は、受信した認識結果を図3(a)に示
すスロット検索テーブルに従って、スロットのスロット
番号1に格納する。さらに、対話状態2から文書番号2
を決定し、文書番号2の「行きたい場所を教えてくださ
い?」の音声出力を音声合成処理部16へ指示する。音
声合成処理部16は、図6に示す文書テーブルから文書
番号2に相当する文書を合成してスピーカ17から出力
するように処理を行う。
【0039】次に、音声認識処理部14が、文書番号2
に対応したユーザの発話から単語単位で認識を行う。こ
こでは、音声認識処理部14が、「兵庫県」という、単
語属性「都道府県名」の単語を認識し、対話制御部13
へ認識結果を送信したしたものとする。すると、対話制
御部13は、遷移テーブルから対話状態4へ遷移したも
のと判断し、ユーザインターフェース管理部12へ、対
話状態4及び認識結果「兵庫県」を送信する。ユーザイ
ンターフェース管理部12は、受信した認識結果を図3
(a)に示すスロット検索テーブルに従って、スロット
のスロット番号3に格納する。さらに、対話状態4から
文書番号4を決定し、文書番号4の「兵庫県の市区町村
名を教えてください?」の音声出力を音声合成処理部1
6へ指示する。音声合成処理部16は、図6に示す文書
テーブルから文書番号4に相当する文書を合成してスピ
ーカ17から出力するように処理を行う。
【0040】次に、音声認識処理部14が、文書番号4
に対応したユーザの発話から単語単位で認識を行う。こ
こでは、音声認識処理部14が、「明石市」という、単
語属性「市区町村名」の単語を認識し、対話制御部13
へ認識結果を送信したしたものとする。すると、対話制
御部13は、遷移テーブルから対話状態6へ遷移したも
のと判断し、ユーザインターフェース管理部12へ、対
話状態6及び認識結果「明石市」を送信する。ユーザイ
ンターフェース管理部12は、受信した認識結果を図3
(a)に示すスロット検索テーブルに従って、スロット
のスロット番号4に格納する。さらに、対話状態6から
文書番号6を決定し、文書番号6の「明石市の町名を教
えてください?」の音声出力を音声合成処理部16へ指
示する。音声合成処理部16は、図6に示す文書テーブ
ルから文書番号6に相当する文書を合成してスピーカ1
7から出力するように処理を行う。
【0041】次に、音声認識処理部14が、文書番号6
に対応したユーザの発話から単語単位で認識を行う。こ
こでは、音声認識処理部14が、「大久保町」という、
単語属性「町字名」の単語を認識し、対話制御部13へ
認識結果を送信したしたものとする。すると、対話制御
部13は、遷移テーブルから対話状態8へ遷移したもの
と判断し、ユーザインターフェース管理部12へ、対話
状態8及び認識結果「大久保町」を送信する。ユーザイ
ンターフェース管理部12は、受信した認識結果を図3
(a)に示すスロット検索テーブルに従って、スロット
のスロット番号5に格納する。さらに、対話状態8から
文書番号8を決定し、文書番号8の「大久保町の地図を
表示します」の音声出力を音声合成処理部16へ指示す
る。音声合成処理部16は、図6に示す文書テーブルか
ら文書番号8に相当する文書を合成してスピーカ17か
ら出力するように処理を行う。
【0042】次に、ユーザインターフェース管理部12
は、図4に示す遷移テーブルから音声対話が終了したも
のと判断し、その時点でスロットに格納されている認識
結果(図3(b)の状態)からナビゲーション機能を決
定する。この場合は、スロット0、3〜5の内容から、
兵庫県明石市大久保町を目的地に設定することが決定さ
れ(図2のステップ209に相当)、案内処理部20に
その旨の指示が送信される(図2のステップ210に相
当)。
【0043】なお、案内処理部20では、車両状態検出
部21によってGPSアンテナ22からのデータに基づ
き車両の現在位置を求める。次に、案内処理部20は、
ルート探索部24へ、現在位置から目的地(兵庫県明石
市大久保町)までのルート探索を指示し、さらに地図情
報管理部25に対して、現在位置から目的地までの地図
情報の検索を指示する。ルート探索部24からのルート
情報及び地図情報管理部25からの地図情報を受信した
案内処理部20は、現在位置から目的地までの地図情報
中にルート情報を合わせた画像をディスプレイ19に表
示するように表示制御部18に指示する。このような流
れに従って、音声対話によってナビゲーションシステム
10が目的地情報を取得して、現在位置から目的地まで
のナビゲーション機能を実行していく。
【0044】なお、図5に示すように目的地を取得する
対話の流れは1通りではなく、考えられる限り多くの流
れを用意しておくことが好ましい。例えば、対話状態2
における文章番号2の「行きたい場所を教えてください
?」の音声出力に対して、ユーザからの発話中に「兵庫
県明石市」という「都道府県名」+「市区町村名」が含
まれる場合には対話状態6へ進み、「兵庫県明石市大久
保町」という「都道府県名」+「市区町村名」+「町字
名」が含まれる場合には対話状態8へ進み、「野球場」
という「施設種類」が含まれる場合には対話状態10へ
進み、「兵庫県の野球場」という「都道府県名」+「施
設種類」が含まれる場合には対話状態12へ進み、「甲
子園」という「施設名称」が含まれる場合には対話状態
14へ進むという具合である。
【0045】次に、図7に示すスロット機能を用いて、
認識結果とナビゲーション機能の実行との関連について
説明する。図7に示すように、各スロット番号701
と、実行されるナビゲーション機能703とを対応付け
て予め設定しておく。ただし、ナビゲーション機能を実
行するためには複数のスロット番号にまたがる認識結果
が必要な場合には、それらを「補助機能」として、連続
したスロット番号を付与することが望ましい。例えば、
「都道府県名」、「市区町村名」及び「町字名」には、
連続した3〜5のスロット番号が付与されている。な
お、この場合、スロット番号3をチェックすれば、スロ
ット4及び5に認識結果が格納されていないことは明確
であるので、連続したスロット番号を付与することによ
って、チェックを簡素化することが可能となる。
【0046】また、同一のスロット番号で複数の機能を
兼用する場合には、単語によって機能の選択を判別する
ことが好ましい。さらに、例えば「はい」、「いいえ」
等の返答、「えーッと」等の間投詞、及び「わからな
い」等の単語は、ナビゲーションを動作させる上で不必
要であるので、スロットには格納しないようにすること
が好ましい。
【0047】さらに、遷移テーブルに沿って対話を進め
ていくに際して、音声認識処理部14が認識した単語
と、地図データDB26中に記載されている単語との間
で、漢字や読み仮名との間に差がある場合には、ユーザ
インターフェース管理部12が、スロットに格納する前
に、地図データDB26中の記載に合わせて変換してお
くことが好ましい。例えば、音声認識処理部14が、
「ひょうごけん」と認識した単語を、「兵庫県」に変換
してスロットに格納することを言う。このような変換に
よって、正確な地図情報の表示やルート案内が可能とな
る。
【0048】次に図8及び9を用いて、音声対話の進行
の他の例について説明する。図8は、ある地点を表示す
るための対話状態の推移を示しており、図9は、図8に
対応した遷移テーブル2である。遷移テーブル2は、状
態番号901、遷移可能な状態数902、遷移条件90
3及び遷移先904の項目から構成されている。
【0049】ある状態から状態100に遷移した場合に
は、文書番号100が決定され、文書番号100に相当
する文書、即ち「住所をお話ください。」が音声合成処
理部16で合成されてスピーカ17から出力される。
【0050】次に、状態101で、ユーザの発話から単
語単位の認識を行い、「兵庫県」という「県名」が認識
された場合には状態102へ、「兵庫県」+「明石市」
という、「県名」及び「市名」が認識された場合には状
態104へ、「兵庫県」+「明石市」+「大久保町」と
いう、「県名」+「市名」+「町名」が認識された場合
には状態106へ遷移する。
【0051】次に、状態102では、文書番号102が
決定され、文書番号102に相当する文書、即ち「兵庫
県の続きをお話ください。」が音声合成処理部16で合
成されてスピーカ17から出力される。
【0052】次に、状態103では、ユーザの発話から
単語単位の認識を行い、「明石市」という、「市名」が
認識された場合には状態104へ、「明石市」+「大久
保町」という、「市名」+「町名」が認識された場合に
は状態106へ遷移する。
【0053】次に、状態104では、状態101から状
態104へ遷移した場合には(状態101での認識単語
数=2なので)、文書番号104−1が決定され、文書
番号104−1に相当する文書、即ち「兵庫県、明石市
の続きをお話ください。」が音声合成処理部16で合成
されてスピーカ17から出力される。また、状態103
から状態104へ遷移した場合には(状態103での認
識単語数=1なので)、文書番号104−2が決定さ
れ、文書番号104−2に相当する文書、即ち「明石市
の続きをお話ください。」が音声合成処理部16で合成
されてスピーカ17から出力される。状態104では、
よりユーザとの対話をスムーズに進めるために、その1
つ前の遷移状態で、ユーザの発話から認識された単語の
数に応じて、音声対話用文書を変更するように設定され
ている。
【0054】次に、状態105では、ユーザの発話から
単語単位の認識を行い、「大久保町」という、「町名」
が認識された場合には状態106へ遷移する。
【0055】次に、状態106では、状態101から状
態106へ遷移した場合には(状態101での認識単語
数=3なので)、文書番号106−1が決定され、文書
番号106−1に相当する文書、即ち「兵庫県、明石
市、大久保町の続きをお話ください。」が音声合成処理
部16で合成されてスピーカ17から出力される。ま
た、状態103から状態106へ遷移した場合には(状
態103での認識単語数=2なので)、文書番号106
−2が決定され、文書番号106−2に相当する文書、
即ち「明石市、大久保町の続きをお話ください。」が音
声合成処理部16で合成されてスピーカ17から出力さ
れる。さらに、状態105から状態106へ遷移した場
合には(状態105での認識単語数=1なので)、文書
番号106−3が決定され、文書番号106−3に相当
する文書、即ち「大久保町の続きをお話ください。」が
音声合成処理部16で合成されてスピーカ17から出力
される。このように、状態106では、よりユーザとの
対話をスムーズに進めるために、その1つ前の遷移状態
で、ユーザの発話から認識された単語の数に応じて、音
声対話用文書を変更するように設定されている。
【0056】図8及び9に示す例のように、一つの対話
状態に対して複数の文書が対応している場合には、認識
結果の単語数に応じて音声案内文書を決定することもで
きる。
【0057】次に図10及び11を用いて、音声対話の
進行の更に他の例について説明する。図10は、認識エ
ラーが発生した場合の対話状態の推移を示しており、図
11は図10に対応した遷移テーブル3である。遷移テ
ーブル3は、状態番号1101、遷移可能な状態数11
02、遷移条件1103及び遷移先1104の項目から
構成されている。
【0058】ある状態から状態200に遷移した場合に
は、文書番号200が決定され、文書番号200に相当
する文書、即ち「住所をお話ください。」が音声合成処
理部16で合成されてスピーカ17から出力される。
【0059】次に、状態101で、ユーザの発話から単
語単位の認識を行い、「兵庫県」という「県名」が認識
された場合には状態202へ、認識エラーが発生した場
合には、状態204へ遷移する。
【0060】次に、状態204では、エラーカウント=
1として、文書番号204−1が決定され、文書番号2
04−1に相当する文書、即ち「もう一度大きい(小さ
い)声でお話ください。」が音声合成処理部16で合成
されてスピーカ17から出力されて、状態200へ再度
遷移する。
【0061】もし、再度状態201で認識エラーが発生
した場合には、エラーカウント=2として、文書番号2
04−2が決定され、文書番号204−2に相当する文
書、即ち「もう少し大きい(小さい)声でお話くださ
い。」が音声合成処理部16で合成されてスピーカ17
から出力されて、状態200へ再度遷移する。
【0062】このように、認識エラーの発生回数に応じ
て、音声案内文書を音声対話用文書を変更するように設
定されている。なお、ここでは、2通りの音声案内文書
を示したが、認識エラー回数に応じて、更に多くの音声
認識文書を設けることのできる。
【0063】図10及び11に示す例のように、一つの
対話状態に対して複数の文書が対応している場合には、
単語認識のエラー、特にエラー回数に応じて音声案内文
書を決定することもできる。
【0064】さらに、認識エラーの種類、例えばユーザ
の発話が大きすぎる場合、ユーザの発話が小さすぎる場
合、発話のタイミングが早い場合、発話のタイミングが
遅い場合、及び周囲の雑音が大きい場合等に応じて、音
声案内文書を変更するように設定しても良い。その場
合、発話が大きすぎる場合には、小さな声で話すよう
に、発話が小さすぎる場合には、大きな声で話すような
音声案内文書が選択される。
【0065】上記説明においては、ユーザインターフェ
ース管理部12が、音声案内用文書及び画面表示用文書
を決定する場合について述べてきたが、対話制御部13
において、音声案内用文書及び画面表示用文書を決定す
るように構成しても良い。図12は、対話制御部13
が、音声案内用文書及び画面表示用文書を決定するよう
に構成した別の手順を示している。以下、図12に示す
手順について説明する。
【0066】最初に、ナビゲーションシステム10の電
源ON又は対話開始ボタンの押下等によって音声対話を
開始する(ステップ1201)。
【0067】次に、マイクロフォン15から入力される
ユーザの音声を音声認識部14が単語単位で認識し、対
話制御部13は音声認識処理部14の認識結果を受信す
る(ステップ1202)。
【0068】次に対話制御部13は、認識結果に基づい
て対話状態を決定する(ステップ1203)。
【0069】次に、対話制御部13は、対話状態及び認
識結果から、遷移テーブル(図4参照)を利用して、音
声対話用文書を決定する(ステップ1204)。さら
に、対話制御部13は、対話状態及び認識結果から、画
面表示用文書を決定する(ステップ1205)。
【0070】次に、対話制御部13は、ユーザインター
フェース管理部12へ、認識結果、決定した音声案内文
書及び画面表示用文書を送信する(ステップ120
6)。ユーザインターフェース管理部12では、受信し
た音声案内文書及び画面表示用文書に基づいて、音声出
力及び画面表示を行い、受信した認識結果をスロットに
格納する。
【0071】次に、対話制御部13は、ユーザとの対話
が終了したか否かを判断し(ステップ1207)、対話
の終了により一連の流れを終了する。また、対話が終了
されていなければ、再度ステップ1202〜1206を
繰り返す。このようなステップを繰り返すことによっ
て、ユーザインターフェース管理部12は、スロットに
認識結果を格納し、図2に示した手順と同様に、ナビゲ
ーション機能を実行していく。
【0072】
【発明の効果】本発明に従ったナビゲーションシステム
における音声対話インターフェース処理方法を用いれ
ば、適切な音声案内及び画面表示案内をユーザに提供す
ることで、適切な発話を促すことができる。
【0073】また、本発明に従ったナビゲーションシス
テムにおける音声対話インターフェース処理方法を用い
れば、ユーザが任意に対話を進めても、ランダムに得ら
れる発話からの音声認識結果に基づいてナビゲーション
機能の動作に必要な情報を確実に抽出することができ
る。
【0074】さらに、本発明に従ったナビゲーションシ
ステムにおける音声対話インターフェース処理方法を用
いれば、スロットへの認識結果の格納状態をチェックす
ることによって、実行するナビゲーション機能を選択す
るようにしたので、処理手順の簡素化及び処理時間の短
縮化を図ることができる。
【図面の簡単な説明】
【図1】本発明を実施するためのナビゲーションシステ
ムの概略を示す図である。
【図2】本発明に従った音声対話インターフェース処理
方法の手順の一例を示す図である。
【図3】(a)はスロット検索テーブル示す図、(b)
はスロットに格納された認識結果の一例を示す図であ
る。
【図4】音声対話インターフェース処理方法に対応した
遷移テーブルの一例を示す図である。
【図5】音声対話インターフェース処理方法に対応した
対話状態の推移の一例を示す図である。
【図6】音声対話インターフェース処理方法に対応した
文書テーブルの一例を示す図である。
【図7】音声対話インターフェース処理方法に対応した
スロット機能の一例を示す図である。
【図8】音声対話インターフェース処理方法に対応した
対話状態の他の一例を示す図である。
【図9】図8に対応した遷移テーブルの一例を示す図で
ある。
【図10】音声対話インターフェース処理方法に対応し
た対話状態の更に他の一例を示す図である。
【図11】図10に対応した遷移テーブルの一例を示す
図である。
【図12】本発明に従った音声対話インターフェース処
理方法の手順の他の一例を示す図である。
【符号の説明】
10…音声対話型ナビゲーションシステム 11…システム管理部 12…ユーザインターフェース管理部 13…対話制御部 14…音声認識処理部 15…マイクロフォン 16…音声合成処理部 17…スピーカ 18…表示制御部 19…ディスプレイ 20…案内処理部 21…車両状態検出部 22…GPSアンテナ 23…車速センサ 24…ルート探索部 25…地図情報管理部 26…地図データDB
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/00 G10L 3/00 571U 15/18 561D 15/22 Q 15/28 537E Fターム(参考) 2C032 HB02 HB05 HB22 HC08 HC16 HC31 HD03 HD12 2F029 AA02 AB07 AC02 AC14 AC18 5D015 KK01 KK04 LL06 LL07 5D045 AB17 5H180 AA01 BB13 EE01 FF05 FF22 FF25 FF27 FF32

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 表示部と、マイクロフォンから入力され
    た音声を認識して単語単位の認識結果を出力する音声認
    識処理部と、前記認識結果に応じて対話状態を判断しな
    がらユーザとの対話制御を行う音声対話制御部と、音声
    案内を出力する音声合成処理部と、ナビゲーション機能
    を実行するための案内処理部と、ユーザインターフェー
    ス管理部とを有するナビゲーションシステムにおいて、
    前記ユーザインターフェース管理部は、 前記対話状態に応じて音声案内用文書及び画面表示用文
    書を決定し、 前記音声合成処理部から前記音声案内用文書による音声
    案内出力を行い、 前記表示部に前記画面表示用文書を表示し、 前記認識結果及び前記対話状態応じて、前記案内処理部
    によるナビゲーション機能を実行させることを特徴とす
    るナビゲーションシステムにおける音声対話インターフ
    ェース処理方法。
  2. 【請求項2】 前記ユーザインターフェース管理部は、
    対話状態と文書とを対応付けたテーブルを用いて、前記
    音声案内用文書を決定する請求項1に記載のナビゲーシ
    ョンシステムにおける音声対話インターフェース処理方
    法。
  3. 【請求項3】 前記ユーザインターフェース管理部は、
    前記テーブルが同一の対話状態に対して複数の文書が対
    応している場合には、前記認識結果の単語数に応じて、
    前記音声案内用文書を決定する請求項2に記載のナビゲ
    ーションシステムにおける音声対話インターフェース処
    理方法。
  4. 【請求項4】 前記ユーザインターフェース管理部は、
    前記テーブルが同一の対話状態に対して複数の文書が対
    応している場合には、前記認識結果の単語属性に応じ
    て、前記音声案内用文書を決定する請求項2に記載のナ
    ビゲーションシステムにおける音声対話インターフェー
    ス処理方法。
  5. 【請求項5】 前記ユーザインターフェース管理部は、
    前記テーブルが同一の対話状態に対して複数の文書が対
    応している場合には、前記認識結果の単語認識エラーに
    応じて、前記音声案内用文書を決定する請求項2に記載
    のナビゲーションシステムにおける音声対話インターフ
    ェース処理方法。
  6. 【請求項6】 前記ユーザインターフェース管理部は、
    前記テーブルが同一の対話状態に対して複数の文書が対
    応している場合には、前記認識結果の単語認識エラーの
    回数に応じて、前記音声案内用文書を決定する請求項2
    に記載のナビゲーションシステムにおける音声対話イン
    ターフェース処理方法。
  7. 【請求項7】 前記ユーザインターフェース管理部は、
    対話状態と文書とを対応付けたテーブルを用いて、前記
    画面表示用文書を決定する請求項1に記載のナビゲーシ
    ョンシステムにおける音声対話インターフェース処理方
    法。
  8. 【請求項8】 前記ユーザインターフェース管理部は、
    前記テーブルが同一の対話状態に対して複数の文書が対
    応している場合には、前記認識結果の単語数に応じて、
    前記画面表示用文書を決定する請求項7に記載のナビゲ
    ーションシステムにおける音声対話インターフェース処
    理方法。
  9. 【請求項9】 前記ユーザインターフェース管理部は、
    前記テーブルが同一の対話状態に対して複数の文書が対
    応している場合には、前記認識結果の単語属性に応じ
    て、前記画面表示用文書を決定する請求項7に記載のナ
    ビゲーションシステムにおける音声対話インターフェー
    ス処理方法。
  10. 【請求項10】 前記ユーザインターフェース管理部
    は、前記テーブルが同一の対話状態に対して複数の文書
    が対応している場合には、前記認識結果の単語認識エラ
    ーに応じて、前記画面表示用文書を決定する請求項7に
    記載のナビゲーションシステムにおける音声対話インタ
    ーフェース処理方法。
  11. 【請求項11】 前記ユーザインターフェース管理部
    は、前記テーブルが同一の対話状態に対して複数の文書
    が対応している場合には、前記認識結果の単語認識エラ
    ーの回数に応じて、前記画面表示用文書を決定する請求
    項7に記載のナビゲーションシステムにおける音声対話
    インターフェース処理方法。
  12. 【請求項12】 前記ユーザインターフェース管理部
    は、前記認識結果の単語属性に応じて、予め定められた
    記憶領域に前記認識結果を格納する請求項1に記載のナ
    ビゲーションシステムにおける音声対話インターフェー
    ス処理方法。
  13. 【請求項13】 前記ユーザインターフェース管理部
    は、前記認識結果の単語属性が前記案内処理部によるナ
    ビゲーション機能の実行に不必要な場合は、前記認識結
    果を前記記憶領域に格納しない請求項12に記載のナビ
    ゲーションシステムにおける音声対話インターフェース
    処理方法。
  14. 【請求項14】 前記ユーザインターフェース管理部
    は、前記対話制御部による対話終了後に、前記記憶領域
    をチェックし、前記認識結果が格納されている記憶領域
    に応じて、前記案内処理部によるナビゲーション機能を
    実行させる請求項12に記載のナビゲーションシステム
    における音声対話インターフェース処理方法。
  15. 【請求項15】 前記ユーザインターフェース管理部
    は、前記案内処理部によるナビゲーション機能の実行の
    ために複数の認識結果が必要な場合には、前記複数の認
    識結果を格納するために連続した複数の記憶領域を設定
    する請求項12に記載のナビゲーションシステムにおけ
    る音声対話インターフェース処理方法。
  16. 【請求項16】 前記ユーザインターフェース管理部
    は、前記対話制御部による対話終了後に、前記記憶領域
    をチェックし、前記連続した複数の記憶領域の先頭に認
    識結果が格納されていなければ、その後の記憶領域にも
    認識結果が格納されていないものと判断する請求項15
    に記載のナビゲーションシステムにおける音声対話イン
    ターフェース処理方法。
  17. 【請求項17】 前記ナビゲーションシステムは、前記
    案内処理部によるナビゲーション機能の実行のためのデ
    ータベースを更に有し、前記ユーザインターフェース管
    理部は、前記認識結果を前記データベースの表記に変換
    する請求項1〜17の何れか一項に記載のナビゲーショ
    ンシステムにおける音声対話インターフェース処理方
    法。
  18. 【請求項18】 表示部と、マイクロフォンから入力さ
    れた音声を認識して単語単位の認識結果を出力する音声
    認識処理部と、前記認識結果に応じて対話状態を判断し
    ながらユーザとの対話制御を行う音声対話制御部と、音
    声案内を出力する音声合成処理部と、ナビゲーション機
    能を実行するための案内処理部と、ユーザインターフェ
    ース管理部とを有するナビゲーションシステムにおい
    て、 前記音声対話制御部は、前記対話状態に応じて音声案内
    用文書及び画面表示用文書を決定し、 前記ユーザインターフェース管理部は、前記音声合成処
    理部から前記音声案内用文書による音声案内出力を行
    い、前記表示部に前記画面表示用文書を表示し、前記認
    識結果及び前記対話状態応じて、前記案内処理部による
    ナビゲーション機能を実行させることを特徴とするナビ
    ゲーションシステムにおける音声対話インターフェース
    処理方法。
JP2001215962A 2001-07-16 2001-07-16 ナビゲーションシステムにおける音声対話インターフェース処理方法 Withdrawn JP2003029778A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001215962A JP2003029778A (ja) 2001-07-16 2001-07-16 ナビゲーションシステムにおける音声対話インターフェース処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001215962A JP2003029778A (ja) 2001-07-16 2001-07-16 ナビゲーションシステムにおける音声対話インターフェース処理方法

Publications (1)

Publication Number Publication Date
JP2003029778A true JP2003029778A (ja) 2003-01-31

Family

ID=19050501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001215962A Withdrawn JP2003029778A (ja) 2001-07-16 2001-07-16 ナビゲーションシステムにおける音声対話インターフェース処理方法

Country Status (1)

Country Link
JP (1) JP2003029778A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005064275A1 (ja) * 2003-12-26 2005-07-14 Matsushita Electric Industrial Co., Ltd. ナビゲーション装置
WO2008111217A1 (ja) * 2007-03-15 2008-09-18 Olympus Medical Systems Corp. 手術システム制御装置及び手術システム制御方法
WO2009004750A1 (ja) * 2007-07-02 2009-01-08 Mitsubishi Electric Corporation 音声認識装置
US8010368B2 (en) 2005-12-28 2011-08-30 Olympus Medical Systems Corp. Surgical system controlling apparatus and surgical system controlling method
TWI382157B (zh) * 2008-09-26 2013-01-11 Mitac Int Corp 具有會話系統之可攜式導航裝置及其處理方法
CN109147781A (zh) * 2007-12-11 2019-01-04 声钰科技 通过自然语言语音用户界面提供车载服务的方法和系统
CN109243463A (zh) * 2017-07-10 2019-01-18 三星电子株式会社 遥控器及其用于接收用户语音的方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005064275A1 (ja) * 2003-12-26 2005-07-14 Matsushita Electric Industrial Co., Ltd. ナビゲーション装置
US8010368B2 (en) 2005-12-28 2011-08-30 Olympus Medical Systems Corp. Surgical system controlling apparatus and surgical system controlling method
WO2008111217A1 (ja) * 2007-03-15 2008-09-18 Olympus Medical Systems Corp. 手術システム制御装置及び手術システム制御方法
EP2124222A4 (en) * 2007-03-15 2015-03-18 Olympus Medical Systems Corp OPERATING SYSTEM CONTROL DEVICE AND OPERATING SYSTEM CONTROL METHOD
WO2009004750A1 (ja) * 2007-07-02 2009-01-08 Mitsubishi Electric Corporation 音声認識装置
JP4859982B2 (ja) * 2007-07-02 2012-01-25 三菱電機株式会社 音声認識装置
US8407051B2 (en) 2007-07-02 2013-03-26 Mitsubishi Electric Corporation Speech recognizing apparatus
CN109147781A (zh) * 2007-12-11 2019-01-04 声钰科技 通过自然语言语音用户界面提供车载服务的方法和系统
TWI382157B (zh) * 2008-09-26 2013-01-11 Mitac Int Corp 具有會話系統之可攜式導航裝置及其處理方法
CN109243463A (zh) * 2017-07-10 2019-01-18 三星电子株式会社 遥控器及其用于接收用户语音的方法
CN109243463B (zh) * 2017-07-10 2023-12-05 三星电子株式会社 遥控器及其用于接收用户语音的方法

Similar Documents

Publication Publication Date Title
US6108631A (en) Input system for at least location and/or street names
US6067521A (en) Interrupt correction of speech recognition for a navigation device
US6243675B1 (en) System and method capable of automatically switching information output format
US6978237B2 (en) Speech recognition support method and apparatus
US20030014261A1 (en) Information input method and apparatus
US20070156331A1 (en) Navigation device
JP2006195576A (ja) 車載音声認識装置
EP1273887A2 (en) Navigation system
JP4642953B2 (ja) 音声検索装置、および、音声認識ナビゲーション装置
JP2003029778A (ja) ナビゲーションシステムにおける音声対話インターフェース処理方法
JP2000338993A (ja) 音声認識装置、その装置を用いたナビゲーションシステム
JP5455355B2 (ja) 音声認識装置及びプログラム
JP3890774B2 (ja) ナビゲーションシステム
JP2001027540A (ja) 音声認識機能を用いたナビゲーション方法
US6687604B2 (en) Apparatus providing audio manipulation phrase corresponding to input manipulation
JPH11211500A (ja) 地図表示装置
JP2002039779A (ja) ナビゲーションシステム
JP2003005783A (ja) ナビゲーションシステムおよびその目的地入力方法
JP2000193479A (ja) ナビゲ―ション装置及び記憶媒体
JPH0934491A (ja) 音声合成装置および音声合成方法、並びにナビゲーションシステム
JP2005114964A (ja) 音声認識方法および音声認識処理装置
JP2008310344A (ja) 提示装置及び提示方法
JP2001083983A (ja) 音声認識装置、音声認識のためのデータを記録した記録媒体、および、音声認識ナビゲーション装置
JP3911835B2 (ja) 音声認識装置及びナビゲーションシステム
JP4550207B2 (ja) 音声認識装置および音声認識ナビゲーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080711

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090130