JP2005267092A - 照応解析装置及びナビゲーション装置 - Google Patents

照応解析装置及びナビゲーション装置 Download PDF

Info

Publication number
JP2005267092A
JP2005267092A JP2004076920A JP2004076920A JP2005267092A JP 2005267092 A JP2005267092 A JP 2005267092A JP 2004076920 A JP2004076920 A JP 2004076920A JP 2004076920 A JP2004076920 A JP 2004076920A JP 2005267092 A JP2005267092 A JP 2005267092A
Authority
JP
Japan
Prior art keywords
destination
situation
user
anaphoric
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004076920A
Other languages
English (en)
Inventor
Keisuke Watanabe
圭輔 渡邉
Katsushi Suzuki
克志 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004076920A priority Critical patent/JP2005267092A/ja
Publication of JP2005267092A publication Critical patent/JP2005267092A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 利用者が画面上で照応先を指示することなく、外界照応の解析を行うことができるとともに、利用者の周囲に存在する対象事物に係る外界照応の解析を行うことができるようにする。
【解決手段】 状況依存表現辞書8を参照して、利用者の発話内容に含まれている状況依存表現を検出する状況依存表現検出部9と、対象事物の検索条件(現在位置、進行方向)を検出する位置・進行方向検出部2とを設け、照応先条件記憶部10から状況依存表現検出部9により検出された状況依存表現に対応する照応先条件を検索して、その照応先条件と当該検索条件に合致する対象事物の属性データを検索し、その対象事物を提示する。
【選択図】 図1

Description

この発明は、利用者の発話内容に含まれている状況依存表現の意味内容を解析して、利用者が所望する対象事物を検索する照応解析装置と、その照応解析装置を搭載しているナビゲーション装置とに関するものである。
自然言語は人間にとって最も自然な表現手段であり、近年、自然言語入力によるマンマシンインタフェースの研究・開発が盛んである。
しかし、自然言語を計算機のような情報処理装置で扱うには様々な問題があり、特に、自然言語の持つ曖昧性が問題となる。
例えば、発話内容に含まれる「それ」、「あの」などの指示表現は何を指すのかが不明確であり、「近くの」のような省略表現は何の近くであるのかが不明確であり、指示表現や省略表現には曖昧性が存在する。
これらは、照応・省略現象と呼ばれ、その照応先を求める処理が照応解析と呼ばれている。
照応にはいくつかの種類がある。
そのうちの一つである前方照応は、例えば、「明細書を作成しました。それを印刷しました。」のような文章があるとき、照応詞(この例では「それ」)が参照する表現(この例では「明細書」)が、照応詞に先行して現れるような現象である。
後方照応は、前方照応の逆であり、照応詞が参照する表現が照応詞の後に現れる現象である。
これらは、参照する表現が文章中に存在するため、文脈照応とも呼ばれる。
一方、「そのコップとって」や「右のお寺は何?」のように、参照する表現が文書中にはなく、参照先が発話者の状況に依存する照応現象は外界照応あるいは文脈外照応と呼ばれている。
従来から照応解析には様々な方法が提案されている。
例えば、以下の特許文献1に開示されている従来の照応解析装置は、助詞情報に依らない照応解析を可能にすることを目的としており、照応解析装置が応答する内容の対象となるものを、応答した順に参照対象記憶手段に記憶しておき、新規入力中に含まれる参照表現の参照先を抽出する参照処理手段を備えることによって、前方照応の解析を可能にしている。
しかし、この装置では、記憶しておいた入力や出力内容から照応先を同定するため、文脈照応解析しか行えず、外界照応解析を行うことができない。
また、以下の特許文献2に開示されている従来の照応解析装置は、照応詞を含む文の統語的構造に基づいて、その文内から照応先候補を抽出することを目的とするものであり、文内で生じた後方参照現象の解析を可能にするものである。
この装置の場合も、外界照応解析を行うことができない。
これに対して、以下の特許文献3に開示されている従来の照応解析装置は、外界照応の解析を目的としている。
即ち、発話者がマウスなどを使用して、指示している部分を画面上で特定する手段を設けることにより、例えば、「このウインドウを最小化」という自然言語が入力された場合には、自然言語中の「この」と、画面上の部分とを対応付けるようにしている。
特開2001−101000号公報(段落番号[0037]から[0043]、図1) 特開平5−128147号公報(段落番号[0008]から[0015]、図1) 特開平7−110808号公報(段落番号[0011]から[0015]、図1)
従来の照応解析装置は以上のように構成されているので、発話者がマウスなどを使用して、照応詞の照応先を画面上で指示すれば、外界照応の解析を行うことができる。しかし、発話者がマウスなどを使用して、照応詞の照応先を画面上で指示できない状況下では、外界照応の解析を行うことができない課題があった。
また、解析を行うことができるものは、発話者がマウスなどを使用して、直接指示することが可能な画面上に表示された対象事物だけである。したがって、例えば、「右のお寺は何?」や「それ何ていう川?」などのように、画面上に表示されている対象事物ではなく、発話者の周囲に存在する対象事物に係る外界照応の解析を行うことができない課題があった。
この発明は上記のような課題を解決するためになされたもので、利用者が画面上で照応先を指示することなく、外界照応の解析を行うことができるとともに、利用者の周囲に存在する対象事物に係る外界照応の解析を行うことができる照応解析装置及びナビゲーション装置を得ることを目的とする。
この発明に係る照応解析装置は、状況依存表現辞書を参照して、利用者の発話内容に含まれている状況依存表現を検出する状況依存表現検出手段と、対象事物の検索条件を検出する検索条件検出手段とを設け、記憶手段から状況依存表現検出手段により検出された状況依存表現に対応する照応先条件を検索して、その照応先条件と検索条件検出手段により検出された検索条件に合致する対象事物の属性データを検索し、その対象事物を提示するようにしたものである。
この発明によれば、状況依存表現辞書を参照して、利用者の発話内容に含まれている状況依存表現を検出する状況依存表現検出手段と、対象事物の検索条件を検出する検索条件検出手段とを設け、記憶手段から状況依存表現検出手段により検出された状況依存表現に対応する照応先条件を検索して、その照応先条件と検索条件検出手段により検出された検索条件に合致する対象事物の属性データを検索し、その対象事物を提示するように構成したので、利用者が画面上で照応先を指示することなく、外界照応の解析を行うことができるとともに、利用者の周囲に存在する対象事物に係る外界照応の解析を行うことができる効果がある。
実施の形態1.
図1はこの発明の実施の形態1による照応解析装置を搭載しているナビゲーション装置示す構成図であり、図において、GPS衛星1は地球上を周回している衛星であり、位置測定用の電波であるGPSデータを発信する。
位置・進行方向検出部2はGPS衛星1から発信されるGPSデータを受信するアンテナを搭載し、そのGPSデータに含まれている緯度・経度のデータから車両の現在位置を時々刻々と計算するとともに、数秒前の位置と現在位置の差分から車両の進行方向を計算する。ただし、車両の進行方向は、ジャイロなどのセンサを用いて検出してもよい。
なお、位置・進行方向検出部2は現在位置検出手段を構成しているが、この実施の形態1では、位置・進行方向検出部2により検出された現在位置と進行方向を対象事物の検索条件として利用するので、位置・進行方向検出部2は検索条件検出手段も構成している。
目的地設定部3はリモコンやマウスなどのマンマシンインタフェースを搭載しており、利用者による目的地の設定を受け付ける機能を備えている。なお、目的地設定部3は目的地設定手段を構成している。
地図データベース4は地図データを記憶している。経路探索部5は地図データベース4に記憶されている地図データを参照して、位置・進行方向検出部2により検出された車両の現在位置から目的地に至る経路を探索する。なお、経路探索部5は経路探索手段を構成している。
音声入力部6はマイクなどを搭載しており、利用者の発話内容を電気信号に変換し、その電気信号を音声認識部7に出力する。音声認識部7は音声入力部6から出力された電気信号から利用者の発話内容を認識し、その認識結果である単語列を状況依存表現検出部9に出力する。
状況依存表現辞書8は利用者の状況に応じて意味内容が変化する状況依存表現を記録している。状況依存表現検出部9は状況依存表現辞書8を参照して、音声認識部7から出力された単語列に含まれている状況依存表現を検出する。なお、状況依存表現検出部9は状況依存表現検出手段を構成している。
照応先条件記憶部10は状況依存表現辞書8に記録されている状況依存表現に対応する照応先条件を記憶しており、その照応先条件は提示対象になり得る対象事物が満足すべき位置や進行方向などの条件を記述している。
対象事物記憶部11は対象事物(例えば、山や川などの自然物、レストランや寺などの人工的建造物)の属性データ(例えば、対象事物の名称、ジャンル、緯度、経度、説明など)を記憶している。
なお、照応先条件記憶部10及び対象事物記憶部11から記憶手段が構成されている。
照応先候補生成部12は照応先条件記憶部10から状況依存表現検出部9により検出された状況依存表現に対応する照応先条件を検索して、その照応先条件と位置・進行方向検出部2により検出された対象事物の検索条件(現在位置、進行方向)に合致する対象事物の属性データを検索する。対象事物選択部13は照応先候補生成部12により複数の対象事物の属性データが検索された場合、提示対象の対象事物を選択してディスプレイ14に表示する。
ディスプレイ14は対象事物選択部13により選択された対象事物を表示するとともに、経路探索部5により探索された経路を表示する。
なお、照応先候補生成部12、対象事物選択部13及びディスプレイ14から検索手段が構成され、ディスプレイ14は表示手段も構成している。
次に動作について説明する。
最初に、ナビゲーション装置の基本的な動作を説明する。
位置・進行方向検出部2は、GPS衛星1から発信されるGPSデータを受信すると、そのGPSデータに含まれている緯度・経度のデータから車両の現在位置(緯度n、経度m)を時々刻々と計算するとともに、数秒前の位置と現在位置の差分から車両の進行方向θを計算する。
ただし、地図上での現在位置や進行方向を高精度に特定するためには、各種の補正が必要となるが、その補正方法は特に問うものではなく、公知の技術を利用すればよい。その補正方法は本願発明の主眼ではないため説明を省略する。
経路探索部5は、利用者が目的地設定部3を利用して、目的地を設定すると、地図データベース4に記憶されている地図データを参照して、位置・進行方向検出部2により検出された車両の現在位置から目的地に至る経路を探索する。
経路探索部5により探索された経路はディスプレイ14に表示され、車両が現在地から目的地に至るまで誘導される。
次に、走行中の周辺情報を案内するナビゲーション装置の機能(照応解析装置の機能)について説明する。
まず、状況依存表現辞書8には、予め知識として、利用者の状況に応じて意味内容が変化する状況依存表現が記録される。
図2は状況依存表現辞書8に記録された状況依存表現の一例を示す説明図である。
例えば、「右」「左」や「その」「あの」などのように、利用者である発話者の現在位置に対する相対的な位置関係を示す表現が状況依存表現として記録されている。
図3は状況依存表現における「右」および「左」に対応する照応先条件の一例を示す説明図であり、その照応先条件は予め照応先条件記憶部10に記憶される。
照応先条件は、例えば、複数の条件式から構成され、位置・進行方向検出部2により検出された対象事物の検索条件(現在位置を表す緯度n・経度m、進行方向θ)が複数の条件式に当てはめられた場合に、照応先になり得る対象事物の位置(緯度y、経度x)を規定している。
例えば、状況依存表現が「右」である場合の一番目の条件式は、図4に示すような平面において、点(m,n)を通り、かつ、y軸となす角がθである直線Lの下側の領域を意味する。
また、状況依存表現が「右」である場合の二番目の条件式は、点(m,n)を中心として、半径が“500”である円Cの内側の領域を意味する。
したがって、状況依存表現「右」に対応する照応先条件は、直線Lの下側、かつ、円Cの内側であり、図4で黒く塗りつぶした領域を意味している。
これは地図上では、緯度n、経度mの現在位置において、進行方向に向かって右側の領域であって、距離が約5km以内の領域を表している。
図5は対象事物の属性データの一例を示す説明図である。
対象事物の属性データは予め対象事物記憶部11に記憶され、対象事物毎に、その名称、ジャンル、緯度、経度、説明の属性が規定されている。
この実施の形態1では、日本国内に存在する対象事物の属性データを記憶しているが、外国に存在する対象事物の属性データを記憶するようにしてもよい。
上記のような知識が状況依存表現辞書8等に記憶されたのち、次のような状況下で利用者が発話したものとして、以下の説明を行う。
例えば、利用者が自動車を運転しているとき、右側に湖が見えてきている状況下で、利用者が、この湖について知りたいと思い、「右の湖は何?」と発話したものとする。
利用者が発話した音声は、マイクなどの音声入力部6により入力され、音声入力部6が利用者の発話内容を電気信号に変換し、その電気信号を音声認識部7に出力する。
音声認識部7は、音声入力部6から電気信号を受けると、その電気信号から利用者の発話内容を認識する。
即ち、音声認識部7は、音声入力部6から出力された電気信号に対して周波数分析を実施することにより、音声認識に用いる特徴パラメータの時系列を生成し、HMM(Hidden Markov Model)などの音響モデルや、ネットワーク文法などの言語モデルを用いて音声認識処理を実施する。
音声認識部7は、音声認識の処理結果として、図6に示すような単語列を状況依存表現検出部9に出力する。
図6の音声認識結果は、単語列が「右 の 湖 は 何」ということを表し、さらに、その単語列に対して、『方向』が「右」、『ジャンル』が「湖」、『発話意図』が「名称質問」という意味理解結果が得られたことを表している。このような、音声認識処理方法や音声意味理解方法は、特に問うものではなく、公知の技術を利用すればよい。これらの方法は本願発明の主眼ではないため説明を省略する。
状況依存表現検出部9は、音声認識部7の音声認識結果である単語列を受けると、状況依存表現辞書8を参照して、その単語列に含まれている状況依存表現を検出する。
即ち、状況依存表現検出部9は、その単語列に含まれている各単語と、状況依存表現辞書8に記録されている状況依存表現とのマッチングを実施し、単語と一致している状況依存表現を検出する。
この例では、単語列「右 の 湖 は 何」から状況依存表現として「右」を検出し、状況依存表現検出部9は、図7に示すように、状況依存表現検出フラグをセットする。図7の状況依存表現検出フラグにおける○印は、状況依存表現として「右」が検出されたことを意味する。
位置・進行方向検出部2は、GPS衛星1から発信されるGPSデータを受信すると、そのGPSデータに含まれている緯度・経度のデータから車両の現在位置(緯度n、経度m)を時々刻々と計算するとともに、数秒前の位置と現在位置の差分から車両の進行方向θを計算する。
ここでは、説明の便宜上、北緯44度5分53秒、東経143度53分8秒、方位角315度を得られたものとする。
照応先候補生成部12は、状況依存表現検出部9から図7に示すような状況依存表現の検出結果を受けると、状況依存表現として「右」が検出されたことを認識し、照応先条件記憶部10から「右」に対応する照応先条件を検索する。
そして、照応先候補生成部12は、位置・進行方向検出部2から上記のような現在位置(緯度、経度)と進行方向の情報を得ると、その情報を「右」に対応する照応先条件に当てはめて、図8に示すような条件式を取得する。図8の条件式では、緯度、経度は全て秒単位に変換されている。
照応先候補生成部12は、対象事物記憶部11に記憶されている対象事物の属性データ(緯度y、経度x)を順次図8の条件式に代入し、図8の条件式が成立するか否かを判定する。
照応先候補生成部12は、図8の条件式が成立する属性データ(緯度y、経度x)を有する対象事物を照応先候補として検索する。
例えば、「BB湖」の場合、緯度が北緯44度7分42秒、経度が東経143度55分38秒であるので、これらを全て秒単位に直すと、図8の条件式におけるyは“158862”、xは“518138”である。
したがって、図8の一番目の条件式の左辺は“259”と計算され、左辺は正の数であるため、一番目の条件式が成立する。
また、二番目の条件式の左辺は“34381”と計算され、左辺は右辺の“250000”より小さいため、二番目の条件式が成立する。
以上より、「BB湖」は照応先候補として検索されるが、同様の計算を実施することにより、例えば、「AA牧場」の属性データが図8の条件式を満足しても、「AA牧場」のジャンルは「動植物園」であり、音声認識結果のジャンル「湖」と異なるので、「AA牧場」は照応先候補として検索されない。
対象事物選択部13は、照応先候補生成部12が照応先候補として「BB湖」を検索すると、対象事物記憶部11から「BB湖」の属性データを読み出し、「BB湖」の名称と、説明「夕日がきれいな湖。ホタテの養殖でも有名です。」をディスプレイ14に表示する。
ただし、対象事物選択部13は、照応先候補生成部12により複数の照応先候補が検索された場合には、複数の照応先候補の中から、例えば、現在位置から最も近い位置にある照応先候補を提示対象の対象事物として選択する処理を実施し、その選択した対象事物の名称と説明をディスプレイ14に表示する。
あるいは、複数の照応先候補の全てを提示対象の対象事物として選択し、それらの対象事物の名称と説明をディスプレイ14に表示する。
なお、ここでは、対象事物選択部13が対象事物の名称等をディスプレイ14に表示するものについて示したが、ディスプレイ14のような視覚的な情報提示方法に限るものではなく、例えば、音声合成処理による合成音声のような聴覚的な方法を用いて、対象事物の名称等を提示するようにしてもよい。
以上で明らかなように、この実施の形態1によれば、状況依存表現辞書8を参照して、利用者の発話内容に含まれている状況依存表現を検出する状況依存表現検出部9と、対象事物の検索条件(現在位置、進行方向)を検出する位置・進行方向検出部2とを設け、照応先条件記憶部10から状況依存表現検出部9により検出された状況依存表現に対応する照応先条件を検索して、その照応先条件と当該検索条件に合致する対象事物の属性データを検索し、その対象事物を提示するように構成したので、利用者が画面上で照応先を指示することなく、外界照応の解析を行うことができるとともに、利用者の周囲に存在する対象事物に係る外界照応の解析を行うことができる効果を奏する。
実施の形態2.
図9はこの発明の実施の形態2による照応解析装置を搭載しているナビゲーション装置示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
提示内容検出部21は対象事物の検索条件として、現在利用者に提示されている内容を検出する。なお、提示内容検出部21は検索条件検出手段を構成している。
照応先候補生成部12が位置・進行方向検出部2から対象事物の検索条件を取得する代わりに、提示内容検出部21から対象事物の検索条件を取得する点で、上記実施の形態1と相違している。
図10は状況依存表現における「近く」に対応する照応先条件の一例を示す説明図である。その照応先条件は予め照応先条件記憶部10に記憶される。
照応先条件は、現在利用者に提示されている内容(例えば、目的地、経由地、現在地)に応じて、何の「近く」を意味しているかを決定する規則を規定している。
この例では、「目的地」のみが提示されている場合には「目的地を中心として半径3km以内に存在する対象事物」、「現在地」のみが提示されている場合には「現在地を中心として半径3km以内に存在する対象事物」、「現在地と目的地」の両方が提示されている場合には「現在地と目的地の中間点を中心として半径3km以内に存在する対象事物」と決定する規則が規定されている。
次のような状況下で利用者が発話したものとして、以下の説明を行う。
例えば、利用者が自動車を運転しており、ちょうど正午頃に目的地に到着する予定で移動している状況下で、利用者が、目的地付近の道路を確認したいと思い、目的地設定部3を操作して目的地の表示を要求して、目的地付近の地図がディスプレイ14に表示されたものとする。
そして、利用者が目的地付近の道路を確認した後、そこに到着するのが正午頃の予定であることを思い出し、目的地の近くで食事がしたいと考えて、「近くのレストラン」と発話したものとする。
利用者が発話した音声は、上記実施の形態1と同様に、マイクなどの音声入力部6により入力され、音声入力部6が利用者の発話内容を電気信号に変換し、その電気信号を音声認識部7に出力する。
音声認識部7は、音声入力部6から電気信号を受けると、上記実施の形態1と同様に、その電気信号から利用者の発話内容を認識する。
音声認識部7は、音声認識の処理結果として、図11に示すような単語列を状況依存表現検出部9に出力する。
図11の音声認識結果は、単語列が「近く の レストラン」ということを表している。
状況依存表現検出部9は、音声認識部7の音声認識結果である単語列を受けると、上記実施の形態1と同様に、状況依存表現辞書8を参照して、その単語列に含まれている状況依存表現を検出する。
この例では、単語列「近く の レストラン」から状況依存表現として「近く」を検出し、状況依存表現検出部9は、図11に示すように、状況依存表現検出フラグをセットする。図11の状況依存表現検出フラグにおける○印は、状況依存表現として「近く」が検出されたことを意味する。
提示内容検出部21は、対象事物の検索条件として、現在利用者に提示されている内容を検出する。
上述したように、この例では、利用者が「近くのレストラン」を発話した時点で、ディスプレイ14には目的地付近の地図が表示されているので、現在利用者に提示されている内容は「目的地」であると認識する。
照応先候補生成部12は、状況依存表現検出部9から図11に示すような状況依存表現の検出結果を受けると、状況依存表現として「近く」が検出されたことを認識し、照応先条件記憶部10から「近く」に対応する照応先条件を検索する。
そして、照応先候補生成部12は、提示内容検出部21から現在利用者に提示されている内容が「目的地」であることを受けると、図10の「近く」に対応する照応先条件から、「目的地」に対応する条件「目的地を中心として半径3km以内に存在する対象事物」を取得する。
照応先候補生成部12は、対象事物記憶部11に記憶されている対象事物毎に、その対象事物の属性データ(緯度y、経度x)を参照して目的地までの距離を計算し、目的地までの距離が3km以内の対象事物を検索する。
また、照応先候補生成部12は、目的地までの距離が3km以内の対象事物のジャンルと音声認識結果のジャンル「レストラン」が一致するか否かを判定する。
これにより、例えば、目的地までの距離が3km以内のレストランとして、「FFの里」が照応先候補として検索される。
対象事物選択部13は、照応先候補生成部12が照応先候補として「FFの里」を検索すると、対象事物記憶部11から「FFの里」の属性データを読み出し、「FFの里」の名称と、説明「地元の人にも評判の和食処」をディスプレイ14に表示する。
ただし、対象事物選択部13は、照応先候補生成部12により複数の照応先候補が検索された場合、複数の照応先候補の中から、例えば、目的地から最も近い位置にある照応先候補を提示対象の対象事物として選択する処理を実施し、その選択した対象事物の名称と説明をディスプレイ14に表示する。
あるいは、複数の照応先候補の全てを提示対象の対象事物として選択し、それらの対象事物の名称と説明をディスプレイ14に表示する。
以上で明らかなように、この実施の形態2のように、提示内容検出部21が対象事物の検索条件として、現在利用者に提示されている内容を検出するようにしても、上記実施の形態1と同様に、利用者が画面上で照応先を指示することなく、外界照応の解析を行うことができるとともに、利用者の周囲に存在する対象事物に係る外界照応の解析を行うことができる効果を奏する。
実施の形態3.
上記実施の形態1では、位置・進行方向検出部2が対象事物の検索条件として、利用者の現在位置と進行方向を検出し、上記実施の形態2では、提示内容検出部21が対象事物の検索条件として、現在利用者に提示されている内容を検出するものについて示したが、図12に示すように、照応先候補生成部12が、利用者の現在位置及び進行方向と、現在利用者に提示されている内容の双方を対象事物の検索条件として利用するようにしてもよい。
具体的には下記の通りである。
図13は状況依存表現における「右」および「左」に対応する照応先条件の一例を示す説明図であり、その照応先条件は予め照応先条件記憶部10に記憶される。
照応先条件は、例えば、複数の条件式から構成され、位置・進行方向検出部2により検出された対象事物の検索条件(現在位置を表す緯度n・経度m、進行方向θ)が複数の条件式に当てはめられた場合に、照応先になり得る対象事物の位置(緯度y、経度x)を規定している。
次のような状況下で利用者が発話したものとして、以下の説明を行う。
例えば、利用者が自動車を運転しているとき、左側に建物が見えてきている状況下で、利用者が、この建物について知りたいと思い、「左に見えるのは何?」と発話したものとする。
利用者が発話した音声は、上記実施の形態1と同様に、マイクなどの音声入力部6により入力され、音声入力部6が利用者の発話内容を電気信号に変換し、その電気信号を音声認識部7に出力する。
音声認識部7は、音声入力部6から電気信号を受けると、上記実施の形態1と同様に、その電気信号から利用者の発話内容を認識する。
音声認識部7は、音声認識の処理結果として、図14に示すような単語列を状況依存表現検出部9に出力する。
図14の音声認識結果は、単語列が「左 に 見えるの は 何」ということを表している。
状況依存表現検出部9は、音声認識部7の音声認識結果である単語列を受けると、上記実施の形態1と同様に、状況依存表現辞書8を参照して、その単語列に含まれている状況依存表現を検出する。
この例では、単語列「左 に 見えるの は 何」から状況依存表現として「左」を検出し、状況依存表現検出部9は、図14に示すように、状況依存表現検出フラグをセットする。図14の状況依存表現検出フラグにおける○印は、状況依存表現として「左」が検出されたことを意味する。
位置・進行方向検出部2は、GPS衛星1から発信されるGPSデータを受信すると、上記実施の形態1と同様に、そのGPSデータに含まれている緯度・経度のデータから車両の現在位置(緯度n、経度m)を時々刻々と計算するとともに、数秒前の位置と現在位置の差分から車両の進行方向θを計算する。
ここでは、説明の便宜上、北緯44度5分53秒、東経143度53分8秒、方位角315度を得られたものとする。
提示内容検出部21は、対象事物の検索条件として、現在利用者に提示されている内容を検出する。
例えば、利用者が「左に見えるのは何?」を発話した時点で、ディスプレイ14には現在地を中心とする走行ルートが表示されている場合(ただし、ディスプレイ14に表示されている地図は、ルート確認のために、交差点を確認できる程度の縮尺であったものとする)、現在利用者に提示されている内容は「現在地」であると認識し、そのディスプレイ14に表示中の対象事物を照応先候補生成部12に出力する。
ここでは、説明の便宜上、「AA牧場」「BB湖」「EE屋」「FFの家」「GGホテル」「HH自然の家」が表示中の対象事物であるとする。
照応先候補生成部12は、状況依存表現検出部9から図14に示すような状況依存表現の検出結果を受けると、状況依存表現として「左」が検出されたことを認識し、照応先条件記憶部10から「左」に対応する照応先条件を検索する。
そして、照応先候補生成部12は、位置・進行方向検出部2から上記のような現在位置(緯度、経度)と進行方向の情報を得ると、その情報を「左」に対応する照応先条件に当てはめて、図15に示すような条件式を取得する。図15の条件式では、緯度、経度は全て秒単位に変換されている。
照応先候補生成部12は、対象事物記憶部11に記憶されている対象事物の属性データ(緯度y、経度x)を順次図15の条件式に代入し、図15の条件式が成立するか否かを判定する。
照応先候補生成部12は、図15の条件式が成立する属性データ(緯度y、経度x)を有する対象事物を照応先候補として検索する。
ここでは、説明の便宜上、「EE屋」「FFの家」「HH自然の家」が表示中の対象事物であるとする。
照応先候補生成部12は、図15の条件式から検索した対象事物と、提示内容検出部21から出力された対象事物とを比較し、双方に含まれている対象事物を最終的な照応先候補として決定する。
この例では、「EE屋」と「HH自然の家」が双方に含まれているので、「EE屋」と「HH自然の家」が最終的な照応先候補として対象事物選択部13に出力される。
対象事物選択部13は、照応先候補生成部12から最終的な照応先候補として「EE屋」と「HH自然の家」を受けると、対象事物記憶部11から「EE屋」と「HH自然の家」の属性データを読み出し、「EE屋」及び「HH自然の家」の名称と、「EE屋」及び「HH自然の家」の説明をディスプレイ14に表示する。この際、「地図上の範囲では、左に見えるのはEE屋とHH自然の家です。」というような情報を利用者に提示するようにしてもよい。
以上で明らかなように、この実施の形態3のように、照応先候補生成部12が、利用者の現在位置及び進行方向と、現在利用者に提示されている内容の双方を対象事物の検索条件として利用するようにしても、上記実施の形態1と同様に、利用者が画面上で照応先を指示することなく、外界照応の解析を行うことができるとともに、利用者の周囲に存在する対象事物に係る外界照応の解析を行うことができる効果を奏する。
実施の形態4.
図16はこの発明の実施の形態4による照応解析装置を搭載しているナビゲーション装置示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
音声認識結果記憶部22は音声認識部7の音声認識結果である単語列を記憶し、検索条件検出部23は音声認識結果記憶部22に記憶された単語列から対象事物の検索条件を検出する。なお、音声認識結果記憶部22及び検索条件検出部23から検索条件検出手段が構成されている。
照応先候補生成部12が位置・進行方向検出部2から対象事物の検索条件を取得する代わりに、検索条件検出部23が音声認識部7の音声認識結果である単語列から対象事物の検索条件を検出し、照応先候補生成部12が検索条件検出部23から対象事物の検索条件を取得する点で、上記実施の形態1と相違している。
図17は状況依存表現における「高く」に対応する照応先条件の一例を示す説明図である。その照応先条件は予め照応先条件記憶部10に記憶される。
照応先条件は、例えば、現在の検索条件である「ランチ金額」に300円加算するなどが規定されている。
次のような状況下で利用者が発話したものとして、以下の説明を行う。
例えば、利用者が自動車を運転している状況下で、昼食のためのレストランを探そうと思い、「近くでランチが1000円くらいのレストラン」と発話したものとする。
利用者が発話した音声は、上記実施の形態1と同様に、マイクなどの音声入力部6により入力され、音声入力部6が利用者の発話内容を電気信号に変換し、その電気信号を音声認識部7に出力する。
音声認識部7は、音声入力部6から電気信号を受けると、上記実施の形態1と同様に、その電気信号から利用者の発話内容を認識する。
音声認識部7は、音声認識の処理結果として、図18に示すような単語列を状況依存表現検出部9に出力する。
図18の音声認識結果は、単語列が「近く で ランチ が 1000円 くらい の レストラン」ということを表している。
状況依存表現検出部9は、音声認識部7の音声認識結果である単語列を受けると、上記実施の形態2と同様に、状況依存表現辞書8を参照して、その単語列に含まれている状況依存表現を検出する。
この例では、単語列「近く で ランチ が 1000円 くらい の レストラン」から状況依存表現として「近く」を検出する。
検索条件検出部23は、音声認識部7の音声認識結果である単語列が音声認識結果記憶部22に記憶されると、その単語列から対象事物の検索条件を検出する。
この例では、ランチ金額“1000円”、ジャンル“レストラン”が対象事物の検索条件として検出される。
照応先候補生成部12は、状況依存表現検出部9が状況依存表現として「近く」を検出すると、上記実施の形態2と同様に、照応先条件記憶部10から「近く」に対応する照応先条件を検索する。
そして、照応先候補生成部12は、「近く」に対応する照応先条件から、例えば、「現在地」に対応する条件「現在地を中心として半径3km以内に存在する対象事物」を取得する。
ここでは、「近く」に対応する照応先条件のうち、「現在地」に対応する条件を取得するものについて示しているが、上記実施の形態2のように、提示内容検出部21が搭載されている場合には、現在利用者に提示されている内容(例えば、現在地、経由地、目的地)に対応する条件を取得するようにしてもよい。
照応先候補生成部12は、対象事物記憶部11に記憶されている対象事物毎に、その対象事物の属性データ(緯度y、経度x)を参照して現在地までの距離を計算し、現在地までの距離が3km以内の対象事物を検索する。
ここでは、説明の便宜上、現在地までの距離が3km以内の対象事物として、「BB個」「CC遺跡」「FFの里」「GGホテル」「HH自然の家」が照応先候補として検索されるものとする。
照応先候補生成部12は、上記のようにして複数の照応先候補を検索すると、これらの照応先候補の中から、検索条件検出部23により検出された対象事物の検索条件に合致する照応先候補の絞込を行う。
即ち、複数の照応先候補のうち、ジャンルがレストランであって、ランチ金額が1000円程度の対象事物を検索する。
ここでは、説明の便宜上、「FFの里」と「GGホテル」が照応先候補として絞り込まれたものとする。
対象事物選択部13は、照応先候補生成部12から照応先候補として「FFの里」と「GGホテル」を受けると、対象事物記憶部11から「FFの里」と「GGホテル」の属性データを読み出し、「FFの里」と「GGホテル」の名称の他、定休日、営業時間、ランチ金額などをディスプレイ14に表示する。
次に、利用者は、ディスプレイ14の表示内容を見て、さらに別のレストランを検索したいと思い、「もう少し高くてもいい」と発話したものとする。
利用者が発話した音声は、上記実施の形態1と同様に、マイクなどの音声入力部6により入力され、音声入力部6が利用者の発話内容を電気信号に変換し、その電気信号を音声認識部7に出力する。
音声認識部7は、音声入力部6から電気信号を受けると、上記実施の形態1と同様に、その電気信号から利用者の発話内容を認識する。
音声認識部7は、音声認識の処理結果として、図19に示すような単語列を状況依存表現検出部9に出力する。
図19の音声認識結果は、単語列が「もう少し 高く ても いい」ということを表している。
状況依存表現検出部9は、音声認識部7の音声認識結果である単語列を受けると、上記実施の形態2と同様に、状況依存表現辞書8を参照して、その単語列に含まれている状況依存表現を検出する。
この例では、単語列「もう少し 高く ても いい」から状況依存表現として「高く」を検出する。
検索条件検出部23は、音声認識部7の音声認識結果である単語列が音声認識結果記憶部22に記憶されると、その単語列から対象事物の検索条件を検出する。
この例では、“高く”が対象事物の検索条件として検出される。
照応先候補生成部12は、状況依存表現検出部9が状況依存表現として「高く」を検出すると、上記実施の形態2と同様に、照応先条件記憶部10から「高く」に対応する照応先条件を検索する。
即ち、照応先候補生成部12は、検索条件検出部23により検索条件として、先にランチ金額が“1000円”が検索されたのち、今回、検索条件として、“高く”が検索されたので、図17の「高く」に対応する照応先条件のうち、「ランチ金額」に対応する条件「現在の条件値に300円加算」を取得し、ランチ金額に対する条件を“1300円”に修正する。
照応先候補生成部12は、上記のようにして、ランチ金額に対する条件を“1300円”に修正すると、その条件を満足するレストランを再度検索する。
例えば、「HH自然の家」が検索されると、その「HH自然の家」は、上記の通り、現在地までの距離が3km以内の対象事物であるので、「HH自然の家」は、照応先候補として出力される。
対象事物選択部13は、照応先候補生成部12から照応先候補として「HH自然の家」を受けると、対象事物記憶部11から「HH自然の家」の属性データを読み出し、「HH自然の家」の名称の他、定休日、営業時間、ランチ金額などをディスプレイ14に表示する。
以上で明らかなように、この実施の形態4のように、検索条件検出部23が音声認識部7の音声認識結果である単語列から対象事物の検索条件を検出するようにしても、上記実施の形態1と同様に、利用者が画面上で照応先を指示することなく、外界照応の解析を行うことができるとともに、利用者の周囲に存在する対象事物に係る外界照応の解析を行うことができる効果を奏する。
実施の形態5.
図20はこの発明の実施の形態5による照応解析装置を搭載しているナビゲーション装置示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
顔方向検出部24は対象事物の検索条件として、利用者の顔の向きを検出する。なお、顔方向検出部24は検索条件検出手段を構成している。
上記実施の形態1では、照応先候補生成部12が位置・進行方向検出部2により検出された車両の現在位置や進行方向を対象事物の検索条件として利用するものについて示したが、さらに、顔方向検出部24により検出された利用者の顔の向きも対象事物の検索条件として利用するようにしてもよい。
具体的には下記の通りである。
図21は状況依存表現における「あれ」に対応する照応先条件の一例を示す説明図であり、その照応先条件は予め照応先条件記憶部10に記憶される。
照応先条件は、位置・進行方向検出部2により検出された対象事物の検索条件(現在位置を表す緯度n・経度m)と、顔方向検出部24により検出された対象事物の検索条件(利用者の顔の方位角φ)とが条件式に当てはめられた場合に、照応先になり得る対象事物の位置(緯度y、経度x)を規定している。
例えば、状況依存表現が「あれ」である場合の一番目の条件式は、図22に示すような平面において、点(m,n)を通り、かつ、y軸となす角がφである直線と垂直に交わる直線Nの下側の領域(利用者の顔が向いている方向の領域)を意味する。
また、状況依存表現が「あれ」である場合の二番目の条件式は、点(m,n)を中心として、半径が“30”である円Dの内側の領域を意味する。
したがって、状況依存表現「あれ」に対応する照応先条件は、直線Nの下側、かつ、円Dの内側であり、図22で黒く塗りつぶした領域を意味している。
これは地図上では、緯度n、経度mの現在位置において、利用者の左右から顔方向に向かって前方に位置する領域であって、距離が約500m以内の領域を表している。
次のような状況下で利用者が発話したものとして、以下の説明を行う。
例えば、利用者が自動車を運転しているとき、左側に建物が見えてきている状況下で、利用者が、この建物について知りたいと思い、そちらを向いて「あれは何?」と発話したものとする。
利用者が発話した音声は、上記実施の形態1と同様に、マイクなどの音声入力部6により入力され、音声入力部6が利用者の発話内容を電気信号に変換し、その電気信号を音声認識部7に出力する。
音声認識部7は、音声入力部6から電気信号を受けると、上記実施の形態1と同様に、その電気信号から利用者の発話内容を認識する。
音声認識部7は、音声認識の処理結果として、図23に示すような単語列を状況依存表現検出部9に出力する。
図23の音声認識結果は、単語列が「あれ は 何」ということを表している。
状況依存表現検出部9は、音声認識部7の音声認識結果である単語列を受けると、上記実施の形態1と同様に、状況依存表現辞書8を参照して、その単語列に含まれている状況依存表現を検出する。
この例では、単語列「あれ は 何」から状況依存表現として「あれ」を検出し、状況依存表現検出部9は、図23に示すように、状況依存表現検出フラグをセットする。図23の状況依存表現検出フラグにおける○印は、状況依存表現として「あれ」が検出されたことを意味する。
位置・進行方向検出部2は、GPS衛星1から発信されるGPSデータを受信すると、上記実施の形態1と同様に、そのGPSデータに含まれている緯度・経度のデータから車両の現在位置(緯度n、経度m)を時々刻々と計算する。
ここでは、説明の便宜上、北緯44度5分53秒、東経143度53分8秒を得られたものとする。
顔方向検出部24は、利用者の発話時の顔の向きを検出する。
本発明の主眼は、顔の向きの検出方法ではなく、検出された顔方向を利用することにあるので、検出方法の詳細については省略するが、例えば、利用者を撮影するカメラを用意しておき、カメラにより撮影された顔画像に対して、顔画像認識処理を行うことによって顔方向を検出するような公知の技術を利用すればよい。
ここでは、説明の便宜上、顔の方位角φとして、285度が得られたものとする。
照応先候補生成部12は、状況依存表現検出部9から図23に示すような状況依存表現の検出結果を受けると、状況依存表現として「あれ」が検出されたことを認識し、照応先条件記憶部10から「あれ」に対応する照応先条件を検索する。
そして、照応先候補生成部12は、位置・進行方向検出部2から現在位置(緯度n、経度m)の情報を取得し、顔方向検出部24から顔の方位角φの情報を取得すると、これらの情報を「あれ」に対応する照応先条件に当てはめて、図24に示すような条件式を取得する。図24の条件式では、緯度、経度は全て秒単位に変換されている。
照応先候補生成部12は、対象事物記憶部11に記憶されている対象事物の属性データ(緯度y、経度x)を順次図24の条件式に代入し、図24の条件式が成立するか否かを判定する。
照応先候補生成部12は、図24の条件式が成立する属性データ(緯度y、経度x)を有する対象事物を照応先候補として検索する。この例では、「HH自然の家」が照応先候補として検索される。
対象事物選択部13は、照応先候補生成部12が照応先候補として「HH自然の家」を検索すると、対象事物記憶部11から「HH自然の家」の属性データを読み出し、「HH自然の家」の名称と、説明「自然体験型の宿泊施設です。」をディスプレイ14に表示する。
以上で明らかなように、この実施の形態5のように、顔方向検出部24が対象事物の検索条件として、利用者の顔の向きを検出するようにしても、上記実施の形態1と同様に、利用者が画面上で照応先を指示することなく、外界照応の解析を行うことができるとともに、利用者の周囲に存在する対象事物に係る外界照応の解析を行うことができる効果を奏する。
なお、この実施の形態5では、顔方向検出部24が対象事物の検索条件として、利用者の顔の向きを検出するものについて示したが、対象事物の検索条件として、利用者の視線方向φを検出し、照応先条件として、利用者の視線方向φに関する条件を定めるようにしても、利用者の顔の方位角φと同様に取り扱うことができる。利用者の視線方向φについても公知の技術を利用して検出すればよい。
また、この実施の形態5では、顔方向検出部24が対象事物の検索条件として、利用者の顔の向きを検出するものについて示したが、対象事物の検索条件として、利用者の指先方向φを検出し、照応先条件として、利用者の指先方向φに関する条件を定めるようにしても、利用者の顔の方位角φと同様に取り扱うことができる。利用者の指先方向φについても、カメラにより撮像された画像に対する指画像認識技術など、公知の技術を利用して検出すればよい。
実施の形態6.
図25はこの発明の実施の形態6による照応解析装置を搭載しているナビゲーション装置示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
照応先候補選択部25はリモコンや、ディスプレイ14に取付けられるタッチパネルなどから構成され、対象事物選択部13により複数の対象事物の名称などがディスプレイ14に表示された場合、いずれかの対象事物の選択を受け付ける機能を備えている。照応先候補選択部25は選択受付手段を構成している。
上記実施の形態1では、照応先候補生成部12により複数の照応先候補が検索された場合、対象事物選択部13が複数の照応先候補の中から、例えば、現在位置から最も近い位置にある照応先候補を提示対象の対象事物として選択するものについて示したが、対象事物選択部13が複数の照応先候補の名称などをディスプレイ14に表示し、利用者が複数の照応先候補の中から所望の照応先候補を選択できるようにしてもよい。
即ち、対象事物選択部13は、上記実施の形態1〜5と同様にして、照応先候補生成部12が複数の照応先候補を検索すると、複数の照応先候補の名称などをディスプレイ14に表示するとともに、所望の照応先候補の選択を促すメッセージを表示する。
これにより、利用者が照応先候補選択部25を操作して、所望の照応先候補を選択すると、照応先候補生成部12が利用者により選択された照応先候補を対象事物選択部13に通知する。
対象事物選択部13は、照応先候補生成部12から通知を受けると、対象事物記憶部11から利用者により選択された照応先候補の属性データを読み出し、その照応先候補の名称や説明などをディスプレイに表示する。
以上で明らかなように、この実施の形態6によれば、利用者が自らの意思で所望の照応先候補を選択して、その照応先候補の属性を確認することができる効果を奏する。
なお、この実施の形態6では、利用者が照応先候補選択部25を操作して、所望の照応先候補を選択するものについて示したが、照応先候補選択部25が音声認識装置を搭載していれば、対象事物選択部13が複数の照応先候補の名称などを示す音声メッセージをスピーカから出力したのち、あるいは、複数の照応先候補の名称などをディスプレイに14に表示したのち、照応先候補選択部25が利用者の発話内容(選択結果を示す発話内容)を認識して、所望の照応先候補を選択するようにしてもよい。
実施の形態7.
図26はこの発明の実施の形態7による照応解析装置を搭載しているナビゲーション装置示す構成図であり、図において、図12と同一符号は同一または相当部分を示すので説明を省略する。
対話管理部26は照応先候補生成部12により複数の照応先候補が検索された場合、いずれかの照応先候補の選択を促す質問を生成する一方、回答入力部28から質問に対する回答を受けると、その回答に応じて提示対象の対象事物を選択する。
質問提示部27は対話管理部26により生成された質問をディスプレイ14に表示、あるいは、その質問を示す音声メッセージをスピーカから出力する。回答入力部28は利用者から質問に対する回答を入力し、その回答を対話管理部26に出力する。
なお、対話管理部26、質問提示部27及び回答入力部28から対話手段が構成されている。
上記実施の形態6では、照応先候補選択部25がいずれかの対象事物の選択を受け付けるものについて示したが、次のようにして、提示対象の対象事物を選択するようにしてもよい。
ここでは、利用者の発話内容が「左に見えるのは何?」であるとき、例えば、上記実施の形態3と同様に動作して、照応先候補選択部25が「EE屋」と「HH自然の家」を検索したものとする。
この場合、対話管理部26は、「EE屋」または「HH自然の家」の選択を促す質問を生成する。
即ち、対話管理部26は、「EE屋」と「HH自然の家」のジャンルは、それぞれ「ショッピング」と「宿泊施設」であるので、例えば、「左にはショッピング施設と宿泊施設があります。どちらですか?」というような質問を生成する。
質問提示部27は、対話管理部26が上記のような質問を生成すると、その質問をディスプレイ14に表示する。あるいは、その質問を示す音声メッセージをスピーカから出力する。
回答入力部28は、利用者から質問に対する回答を入力し、その回答を対話管理部26に出力する。
即ち、回答入力部28がリモコンやタッチパネルなどから構成されている場合には、利用者の操作を受け付けて、その回答を入力する。また、回答入力部28が音声認識装置を搭載していれば、利用者の発話内容(質問に対する回答)を認識する。
この例では、説明の便宜上、利用者が「宿泊施設」と回答したものとする。
対話管理部26は、回答入力部28から回答「宿泊施設」を受けると、ジャンルが宿泊施設である「HH自然の家」を選択して、その選択結果を照応先候補生成部12に出力する。
照応先候補生成部12は、照応先候補として、「HH自然の家」を対象事物選択部13に出力する。
以上で明らかなように、この実施の形態7によれば、上記実施の形態6と同様に、利用者が自らの意思で所望の照応先候補を選択して、その照応先候補の属性を確認することができる効果を奏する。
この発明の実施の形態1による照応解析装置を搭載しているナビゲーション装置示す構成図である。 状況依存表現辞書に記録された状況依存表現の一例を示す説明図である。 状況依存表現における「右」および「左」に対応する照応先条件の一例を示す説明図である。 照応先条件を示す説明図である。 対象事物の属性データの一例を示す説明図である。 音声認識部により認識された単語列を示す説明図である。 状況依存表現の検出結果を示す説明図である。 照応先条件の条件式を示す説明図である。 この発明の実施の形態2による照応解析装置を搭載しているナビゲーション装置示す構成図である。 状況依存表現における「近く」に対応する照応先条件の一例を示す説明図である。 音声認識結果と状況依存表現の検出結果を示す説明図である。 この発明の実施の形態3による照応解析装置を搭載しているナビゲーション装置示す構成図である。 音声認識結果と状況依存表現の検出結果を示す説明図である。 音声認識結果と状況依存表現の検出結果を示す説明図である。 照応先条件の条件式を示す説明図である。 この発明の実施の形態4による照応解析装置を搭載しているナビゲーション装置示す構成図である。 照応先条件を示す説明図である。 音声認識部により認識された単語列を示す説明図である。 音声認識結果と状況依存表現の検出結果を示す説明図である。 この発明の実施の形態5による照応解析装置を搭載しているナビゲーション装置示す構成図である。 状況依存表現における「あれ」に対応する照応先条件の一例を示す説明図である。 照応先条件を示す説明図である。 音声認識結果と状況依存表現の検出結果を示す説明図である。 照応先条件の条件式を示す説明図である。 この発明の実施の形態6による照応解析装置を搭載しているナビゲーション装置示す構成図である。 この発明の実施の形態7による照応解析装置を搭載しているナビゲーション装置示す構成図である。
符号の説明
1 GPS衛星、2 位置・進行方向検出部(現在位置検出手段、検索条件検出手段)、3 目的地設定部(目的地設定手段)、4 地図データベース、5 経路探索部(経路探索手段)、6 音声入力部、7 音声認識部、8 状況依存表現辞書、9 状況依存表現検出部(状況依存表現検出手段)、10 照応先条件記憶部(記憶手段)、11 対象事物記憶部(記憶手段)、12 照応先候補生成部(検索手段)、13 対象事物選択部(検索手段)、14 ディスプレイ(検索手段、表示手段)、21 提示内容検出部(検索条件検出手段)、22 音声認識結果記憶部(検索条件検出手段)、23 検索条件検出部(検索条件検出手段)、24 顔方向検出部(検索条件検出手段)、25 照応先候補選択部(選択受付手段)、26 対話管理部(対話手段)、27 質問提示部(対話手段)、28 回答入力部(対話手段)。

Claims (11)

  1. 利用者の状況に応じて意味内容が変化する状況依存表現を記録している状況依存表現辞書と、上記状況依存表現辞書に記録されている状況依存表現に対応する照応先条件と対象事物の属性データを記憶している記憶手段と、上記状況依存表現辞書を参照して、利用者の発話内容に含まれている状況依存表現を検出する状況依存表現検出手段と、対象事物の検索条件を検出する検索条件検出手段と、上記記憶手段から上記状況依存表現検出手段により検出された状況依存表現に対応する照応先条件を検索して、その照応先条件と上記検索条件検出手段により検出された検索条件に合致する対象事物の属性データを検索し、その対象事物を提示する検索手段とを備えた照応解析装置。
  2. 検索条件検出手段は、対象事物の検索条件として、利用者の現在位置と進行方向を検出することを特徴とする請求項1記載の照応解析装置。
  3. 検索条件検出手段は、対象事物の検索条件として、現在利用者に提示されている内容を検出することを特徴とする請求項1記載の照応解析装置。
  4. 検索条件検出手段は、対象事物の検索条件として、利用者の現在位置と進行方向を検出するとともに、現在利用者に提示されている内容を検出することを特徴とする請求項1記載の照応解析装置。
  5. 検索条件検出手段は、利用者の発話内容から対象事物の検索条件を検出することを特徴とする請求項1記載の照応解析装置。
  6. 検索条件検出手段は、対象事物の検索条件として、利用者の顔の向きを検出することを特徴とする請求項1記載の照応解析装置。
  7. 検索条件検出手段は、対象事物の検索条件として、利用者の視線方向を検出することを特徴とする請求項1記載の照応解析装置。
  8. 検索条件検出手段は、対象事物の検索条件として、利用者の指先方向を検出することを特徴とする請求項1記載の照応解析装置。
  9. 検索手段により対象事物の属性データが複数検索された場合、提示対象の対象事物の選択を受け付ける選択受付手段を設けたことを特徴とする請求項1から請求項8のうちのいずれか1項記載の照応解析装置。
  10. 検索手段により対象事物の属性データが複数検索された場合、いずれかの対象事物の選択を促す質問を利用者に提示し、その質問に対する回答に応じて提示対象の対象事物を選択する対話手段を設けたことを特徴とする請求項1から請求項8のうちのいずれか1項記載の照応解析装置。
  11. 車両の現在位置を検出する現在位置検出手段と、目的地を設定する目的地設定手段と、地図データを記憶している地図データベースと、上記地図データベースに記憶されている地図データを参照して、上記現在位置検出手段により検出された車両の現在位置から上記目的地に至る経路を探索する経路探索手段と、上記経路探索手段により探索された経路を表示する表示手段と、上記経路探索手段により探索された経路の周辺に存在する対象事物の中から、利用者の発話内容に合致する対象事物を検索して提示する照応解析装置とを備えたナビゲーション装置において、利用者の状況に応じて意味内容が変化する状況依存表現を記録している状況依存表現辞書と、上記状況依存表現辞書に記録されている状況依存表現に対応する照応先条件と対象事物の属性データを記憶している記憶手段と、上記状況依存表現辞書を参照して、利用者の発話内容に含まれている状況依存表現を検出する状況依存表現検出手段と、対象事物の検索条件を検出する検索条件検出手段と、上記記憶手段から上記状況依存表現検出手段により検出された状況依存表現に対応する照応先条件を検索して、その照応先条件と上記検索条件検出手段により検出された検索条件に合致する対象事物の属性データを検索し、その対象事物を提示する検索手段とから上記照応解析装置が構成されていることを特徴とするナビゲーション装置。
JP2004076920A 2004-03-17 2004-03-17 照応解析装置及びナビゲーション装置 Pending JP2005267092A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004076920A JP2005267092A (ja) 2004-03-17 2004-03-17 照応解析装置及びナビゲーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004076920A JP2005267092A (ja) 2004-03-17 2004-03-17 照応解析装置及びナビゲーション装置

Publications (1)

Publication Number Publication Date
JP2005267092A true JP2005267092A (ja) 2005-09-29

Family

ID=35091597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004076920A Pending JP2005267092A (ja) 2004-03-17 2004-03-17 照応解析装置及びナビゲーション装置

Country Status (1)

Country Link
JP (1) JP2005267092A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058276A (ja) * 2006-09-04 2008-03-13 Xanavi Informatics Corp 車載装置
JP2010108378A (ja) * 2008-10-31 2010-05-13 Canon Inc 情報検索装置、情報検索方法、プログラム及び記憶媒体
JP2010145262A (ja) * 2008-12-19 2010-07-01 Pioneer Electronic Corp ナビゲーション装置
JP2014010449A (ja) * 2012-06-27 2014-01-20 Samsung Electronics Co Ltd ディスプレイ装置、ディスプレイ装置の制御方法および対話型システム
JP2016042293A (ja) * 2014-08-18 2016-03-31 株式会社デンソー 情報提案システム
US10319378B2 (en) 2014-06-27 2019-06-11 Kabushiki Kaisha Toshiba Interaction apparatus and method
JP2020106997A (ja) * 2018-12-26 2020-07-09 アルパイン株式会社 車載装置、通信システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058276A (ja) * 2006-09-04 2008-03-13 Xanavi Informatics Corp 車載装置
US8694323B2 (en) 2006-09-04 2014-04-08 Xanavi Informatics Corporation In-vehicle apparatus
JP2010108378A (ja) * 2008-10-31 2010-05-13 Canon Inc 情報検索装置、情報検索方法、プログラム及び記憶媒体
JP2010145262A (ja) * 2008-12-19 2010-07-01 Pioneer Electronic Corp ナビゲーション装置
JP2014010449A (ja) * 2012-06-27 2014-01-20 Samsung Electronics Co Ltd ディスプレイ装置、ディスプレイ装置の制御方法および対話型システム
US10319378B2 (en) 2014-06-27 2019-06-11 Kabushiki Kaisha Toshiba Interaction apparatus and method
JP2016042293A (ja) * 2014-08-18 2016-03-31 株式会社デンソー 情報提案システム
JP2020106997A (ja) * 2018-12-26 2020-07-09 アルパイン株式会社 車載装置、通信システム
JP7233918B2 (ja) 2018-12-26 2023-03-07 アルパイン株式会社 車載装置、通信システム

Similar Documents

Publication Publication Date Title
US11168997B2 (en) Reverse natural guidance
US11538459B2 (en) Voice recognition grammar selection based on context
US9076451B2 (en) Operating system and method of operating
EP2518447A1 (en) System and method for fixing user input mistakes in an in-vehicle electronic device
US7310602B2 (en) Navigation apparatus
US11200892B1 (en) Speech-enabled augmented reality user interface
JP2006195637A (ja) 車両用音声対話システム
US20050171685A1 (en) Navigation apparatus, navigation system, and navigation method
WO2005066882A1 (ja) 文字認識装置、移動通信システム、移動端末装置、固定局装置、文字認識方法および文字認識プログラム
JP6388746B2 (ja) 情報提供制御装置および情報提供制御方法
JP6403927B2 (ja) 情報提供制御装置、ナビゲーション装置、設備点検作業支援装置、会話ロボット制御装置、および、情報提供制御方法
EP2660562A1 (en) Route Guidance Apparatus and Method with Voice Recognition
Ma et al. Landmark-based location belief tracking in a spoken dialog system
JP2005267092A (ja) 照応解析装置及びナビゲーション装置
WO2020041945A1 (en) Artificial intelligent systems and methods for displaying destination on mobile device
WO2014199428A1 (ja) 候補告知装置、候補告知方法及び候補告知用プログラム
US10832675B2 (en) Speech recognition system with interactive spelling function
JP2017181631A (ja) 情報制御装置
WO2006028171A1 (ja) データ提示装置、データ提示方法、データ提示プログラムおよびそのプログラムを記録した記録媒体
WO2011030404A1 (ja) オペレーティングシステム及びオペレーティング方法
KR102128030B1 (ko) 내비게이션 장치 및 그 제어 방법
JP2011221852A (ja) 位置特定装置及び位置特定方法
JP5895878B2 (ja) 入力支援システム、方法およびプログラム
CN114964300A (zh) 一种语音识别方法及导航装置
CN117280179A (zh) 基于消息的导航辅助