JP4292646B2 - ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 - Google Patents
ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 Download PDFInfo
- Publication number
- JP4292646B2 JP4292646B2 JP26230199A JP26230199A JP4292646B2 JP 4292646 B2 JP4292646 B2 JP 4292646B2 JP 26230199 A JP26230199 A JP 26230199A JP 26230199 A JP26230199 A JP 26230199A JP 4292646 B2 JP4292646 B2 JP 4292646B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- classification
- user
- input
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 7
- 238000000034 method Methods 0.000 claims description 98
- 230000006870 function Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/263—Language identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/58—Details of telephonic subscriber devices including a multilanguage function
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Navigation (AREA)
Description
【発明の属する技術分野】
本発明は、例えばナビゲーションシステム等の情報機器と利用者との間における情報のやりとりをスムーズに実現するための技術に関する。
【0002】
【従来の技術】
近年、例えば車載用のナビゲーションシステムには、高度なユーザインタフェースを備えるものが多くなってきている。ユーザインタフェースは、システムからユーザへの情報出力及びユーザからシステムへの情報入力をスムーズに行うために不可欠である。ここでいう情報出力には、ディスプレイを用いた情報表示に加え、例えば合成音声などの音声による情報の出力があり、情報入力には、スイッチ操作による情報の入力に加え、音声認識技術を用いた音声による情報の入力がある。
【0003】
そして、さらに最近では、利用者に合わせて情報の出力形態を切り替えることのできるユーザインタフェースを備えたナビゲーションシステムが提案され実現されている。例えば特開平8−193837号公報に開示されたナビゲーションシステムでは、情報出力に用いる国語(例えば日本語、英語、フランス語等)や方言(大阪弁、名古屋弁、東北弁等)の切り替えが可能になっている。これによって、利用者が日本人であれば日本語による情報出力を行ったり、あるいは、例えば大阪人であれば大阪弁による情報出力を行ったりするという具合に、利用者に応じた適切な情報出力が実現されるされるようになった。
【0004】
【発明が解決しようとする課題】
しかしながら、上述した公報に記載のナビゲーションシステムに代表されるような従来のシステムでは、上述したような出力形式の切り替えを行う場合に、例えばメニュー画面の表示を行い、このメニュー画面の表示を参照して利用者がメニュー項目を選択する必要があった。そのため、折角、情報出力形態を切り替えられる構成であっても、その切り替え操作を利用者が把握していなければ、出力形態の切り替えができない。特に国語の切り替えにおいては、次の点も問題となる。それは、例えば英語が選択されている状況下では英語にてメニュー表示がなされるため、例えば日本語やドイツ語へ切り替えようとした場合、英語によるメニューを理解できることが条件となってしまう。
【0005】
一方、音声コマンドを用いて出力形態の切り替えを行うことも考えられるが、この場合も設定切り替えを行う音声コマンドを予め覚えておく必要がある。例えば「大阪弁へ設定変更」という音声コマンドにて出力形態が「大阪弁」へ変更されるシステムでは、「大阪弁にしたい」や「大阪弁に設定」などの正確でない音声入力を行っても出力形態を切り替えることができない。また、上述したように英語が選択されている状況下では、音声コマンドも英語となり、正確な発音ができないと出力形態を切り替えられないことになる。
【0006】
本発明は、上述した問題点を解決するためになされたものであり、利用者への情報出力処理において複数の情報出力形態を切り替える場合に、利用者に合わせた情報出力形態への簡単な切り替えを実現することを目的とする。
【0007】
【課題を解決するための手段及び発明の効果】
本発明のユーザインタフェース装置は、利用者と所定のシステムとの間で情報のやりとりを行うために用いられる、いわゆるHMI(Human Machine Interface )である。所定のシステムとは、例えば上述したようなナビゲーションシステムが一例として挙げられる。そして本装置では、情報出力処理において複数の情報出力形態を切り替えることができる。詳しくは後述するが、例えば従来技術で示したような、情報出力処理に用いる国語を切り替えることができるという具合である。
【0008】
このようなユーザインタフェース装置を前提として、本発明では、問いかけ手段が、利用者に対して任意の発話ではなく音声区分特定語句の発話を促す問いかけ処理を実行する。その後、例えばマイクといった音声入力手段を介して利用者の音声が入力されると、音声区分特定手段が、その入力音声が属する音声区分を特定する。具体的に言えば、それぞれの音声区分に対応させて音声区分特定語句を予め記憶しておき、音声区分特定手段は、入力音声と音声区分特定語句との一致を判断することによって、入力音声が属する音声区分を特定する。そして、特定された音声区分に基づいて、切替手段が、情報出力処理における情報出力形態を切り替える。
【0009】
したがって、上述した音声区分を国語による区分としておけば、入力音声の属する音声区分が特定されると、すなわち利用者の使用国語が分かり、その結果、利用者に合わせた情報出力形態が選択できることになる。例えば利用者の使用国語が日本語であることが分かれば、情報出力処理に使用する国語を日本語に切り替える。
【0010】
従来より、スイッチ操作によって情報出力形態を切り替える装置は実現されていた。しかし、その場合、利用者は特定のスイッチ操作を覚えておく必要があった。このスイッチの代わりに音声を用いることも考えられるが、スイッチと同様に、ある特定の音声コマンドを覚えて入力しなければならない。
【0011】
これに対して本発明では、入力音声そのものをコマンドとして使用するのではなく、不特定の入力音声から、その入力音声が属する音声区分を特定して、情報の出力形態を切り替える。音声区分として利用者の特徴を示すような区分を設定しておけば、音声区分の特定によって利用者の特徴が分かり、利用者に合わせた情報出力形態への切り替えが可能となるからである。そして、この音声区分の特定は、利用者の発話語句、すなわち入力音声によって行うようにした。これによって、ある特定の音声コマンドを覚えていなくても、情報出力形態の切り替えが実現され、利用者に合わせた情報出力形態の変更が極めて簡単に実現される。
なお、利用者の不特定な入力音声に基づき、その入力音声が属する音声区分を特定するためには、各音声区分に対応する音声区分特定語句を十分多くしておく必要がある。しかし、この音声区分特定手段も、後述する音声認識手段と同様、利用者の入力音声と音声区分特定語句との一致を判断する、いわゆる音声認識を行うため、音声区分特定語句を無数に多くすることはできない。
そこで、利用者に対して音声区分特定語句の発話を促す問いかけ処理を実行する問いかけ手段によって、利用者に対し全く任意の発話を許容するのではなく、問いかけ処理を実行して、予め記憶された音声区分特定語句の発話を利用者に促すのである。
このようにすれば、利用者の入力音声が限られた語句となる可能性が高くなるため、問いかけ処理に応じた語句を音声区分特定語句として記憶しておけばよい。その結果、記憶しておく音声区分特定語句の数を減らすことができる。
【0012】
なお、上述した情報出力処理は、例えばディスプレイ装置といった表示手段を介した表示処理であることが考えられる。この場合、例えば日本語の設定がなされれば日本語による情報表示を行う。また、例えば合成音声などの音声を用いた発話処理であることが考えられる。この場合、例えば日本語の設定がなされれば日本語によって発話を行う。もちろん、情報表示と共に発話を行う構成としてもよい。
【0013】
ここで、音声区分に基づいて情報出力形態を切り替える具体例を示し、本発明に対する理解を深める。ただし、以下に示す具体例に本発明が限定されないことは言うまでもない。
(1)上述したように、情報出力処理に用いる国語を切り替える構成とすることが考えられる。
【0014】
その構成は、情報出力処理に国語を用いる場合には、国語を情報出力形態として切り替えることができる構成を前提とし、音声区分には、利用者の使用する国語による区分である国語区分を含めておき、切替手段が、特定された国語区分に基づいて情報出力処理に用いる国語を切り替えることを特徴とするものである(請求項2)。
【0015】
情報出力処理に用いる国語を例えば日本語、英語、ドイツ語に切り替えるという具合である。この場合、日本語、英語、ドイツ語に対応する音声区分(国語区分)を用意する。そして、日本語の区分に対応する音声区分特定語句として「こんにちは」、「こんばんは」などを記憶しておく。また、英語の区分に対応する音声区分特定語句として「Good afternoon」や「Good evening」などを記憶しておく。同様に、ドイツ語の区分に対応する音声区分特定語句として「Guten Tag 」や「Guten Abend」などを記憶しておく。
【0016】
このようにすれば、利用者が「こんにちは」と発話すると、音声区分特定語句との一致判断によって入力音声が属する音声区分(国語区分)が日本語の区分であると判断され、情報出力処理に用いる国語が日本語に設定される。これによって、ディスプレイの表示が日本語で行われたり、装置側の音声が日本語で出力されることになる。
【0017】
(2)情報出力処理に用いる国語の有する標準語や方言といった言語体系を切り替える構成とすることが考えられる。
その構成は、情報出力処理に国語を用いるとき、この国語が標準語及び方言からなる複数の言語体系を有している場合に、情報出力形態として言語体系を切り替えることができる構成を前提とし、音声区分には、利用者の使用する言語体系による区分である方言区分を含めておき、切替手段が、特定された方言区分に基づいて情報出力処理に用いる言語体系を切り替えることを特徴とするものである(請求項3)。
【0018】
例えば情報処理に用いる言語体系を名古屋弁、大阪弁、東北弁のいずれかに切り替えるという具合である。なお、方言だけでなく、標準語への切り替えもできるのが現実的である。この場合、大阪弁、名古屋弁、東北弁に対応する音声区分(方言区分)を用意する。そして、それぞれの区分に対応する音声区分特定語句として大阪弁、名古屋弁、東北弁の独特の語句を記憶しておく。
【0019】
このようにすれば、利用者が例えば「おおきに」と発話すれば、入力音声が属する音声区分(方言区分)が大阪弁の区分であると判断され、情報出力処理に用いる言語体系が大阪弁に設定され、表示や音声出力が大阪弁で行われる。
(3)情報出力処理に用いる装置側音声を男性の音声又は女性の音声のいずれかに切り替える構成とすることが考えられる。
【0020】
その構成は、情報出力形態として、情報出力処理に用いる装置側音声を男性の音声又は女性の音声に切り替えることができる構成を前提として、音声区分には利用者の性別による区分である性別区分を含めておき、切替手段が、特定された性別区分に基づき、装置側音声を切り替えることを特徴とするものである。具体的には、性別区分が男性の区分であれば、装置側音声を女性の音声に切り替える。一方、性別区分が女性の区分であれば、装置側音声を男性の音声に切り替える(請求項4)。
【0021】
これは、利用者が男性であれば女性の音声による情報出力が行われることを好み、逆に利用者が女性であれば男性の音声による情報出力を好むという前提に立ったものである。
この場合、男性の区分に対応する音声区分特定語句には、男性が比較的多く使用すると考えられる語句を記憶する。例えば「俺」や「僕」などが考えられる。一方、女性の区分に対応する音声区分特定語句には、いわゆる女言葉(女性語)を記憶しておくことが考えられる。
【0022】
(4)利用者の年齢に応じた情報出力形態に切り替えることが考えられる。
その構成は、情報出力処理における情報出力形態を、利用者の年齢に応じて切り替えることができる構成を前提とし、音声区分には利用者の年齢による区分である年齢区分を含めておき、切替手段が、特定された年齢区分に基づいて、利用者の年齢に応じた情報出力形態に切り替えることを特徴とするものである(請求項5)。
【0023】
年齢区分は、例えば子供、大人、お年寄りというように区分することが考えられる。この場合、子供の区分に対応する音声区分特定語句としては、子供しか知らないような語句、例えば子供が見るテレビ番組の主人公の名前などを記憶しておく。また、お年寄りの区分に対応する音声区分特定語句としては、お年寄りしか知らないような語句、例えばお年寄りでなければ分からないようなタレントの名前などを記憶しておく。なお、年齢区分は、さらに大まかに設定してもよいし、逆に細かく設定してもよい。例えば子供と大人という2つに区分してもよいし、例えば小学生、中学生、高校生、・・・という具合に区分してもよい。
【0024】
上述した「年齢に応じた情報出力形態」には、例えば次のようなものが考えられる。
▲1▼子供である場合
情報表示において易しい漢字で情報表示を行う。また、選択メニュー項目を表示する場合には、そのメニュー項目を子供向けのものとする。
【0025】
▲2▼お年寄りである場合
情報表示において表示文字のポイント数を大きくする。また、選択メニュー項目を表示する場合には、そのメニュー項目をお年寄り向けのものとする。
以上具体例を挙げて説明したように、本発明のユーザインタフェース装置によれば、利用者の入力音声に基づき、種々の情報出力形態を利用者に合わせて簡単に切り替えることができる。
【0026】
なお、上記(1)〜(4)として述べた情報出力形態の切り替えの内、複数の情報出力形態の切り替えを行う構成とすることもできる。例えば、利用者の入力音声に基づき、情報出力処理に使用する国語及び方言を切り替えるという具合である。また、利用者の入力音声は一語には限られず、入力音声として複数の語句が入力される構成としてもよい。その場合、その複数の語句と音声区分特定語句との一致を判断して少なくとも1つの音声区分を特定すればよい。
【0027】
ところで、上述したユーザインタフェース装置は、情報出力処理における情報出力形態を利用者に合わせて切り替えるものであったが、利用者からの情報入力を音声によって行うことが可能なユーザインタフェース装置においては、音声認識処理も利用者に合わせたものとすることが望ましい。
【0028】
すなわち、請求項6に示すように、さらに、利用者からの音声による情報入力を実現するための音声認識手段を備えていることを前提として、認識対象語句変更手段が、切替手段にて切り替えられた情報出力形態に応じ、音声認識手段による認識対象語句を変更するようにするとよい。
【0029】
音声認識手段は、辞書に記憶された認識対象語句との一致度合いを判断することによって音声認識を行うのであるが、記憶できる認識対象語句の数は装置の性能などによって制限される。そのため、利用者が発話するであろうと想定される語句を認識対象語句として記憶することが、スムーズな音声認識の実現につながる。
【0030】
したがって、この場合は、例えば利用者の使用する国語が日本語であれば、音声認識手段による認識対象語句を日本語の語句とする。また、利用者が使用する方言が大阪弁であれば、音声認識手段による認識対象語句を大阪弁の語句にする。このように情報出力形態に合わせて認識対象語句を設定すれば、利用者に合わせたスムーズな音声認識が実現できる。
【0031】
また、音声特定語句は、音声区分を表す名称ではある必要はない(請求項7)。つまり、先述したように、この音声区分の特定は、利用者の発話語句、すなわち入力音声によって行うようにした。これによって、ある特定の音声コマンドを覚えていなくても、情報出力形態の切り替えが実現され、利用者に合わせた情報出力形態の変更が極めて簡単に実現される。
【0032】
また、上述した問いかけ手段は、表示手段を介した表示処理とすることが考えられる(請求項8)。上記(4)に示したように例えば子供の見るテレビ番組の主人公の名前を子供の区分に対応する音声認識語句とした場合、ディスプレイ等にその主人公を映し出し、その主人公の名前を発話させるようにすることが考えられる。また、問いかけ処理は、音声を用いた発話処理としてもよい(請求項9)。この場合、例えば「こんにちは」、「Good afternoon」、「Guten Tag」というように日本語、英語、ドイツ語のそれぞれで装置側が発話を行い、これに応じた利用者の入力音声を取得する。日本人であれば「こんにちは」と答えることが想定されるからである。
【0033】
また、切替手段は、問いかけ手段が動作したにも関わらず音声入力手段を介して音声が入力されなかった場合には、問いかけ手段が発話を促す音声区分特定語句に対応する音声区分に基づく情報出力形態の切り替えを実行しないように構成されてもよい(請求項10)。この他、問いかけ手段は、予め設定された複数の音声区分の中の何れかに対応する音声区分特定語句の発話を促す問いかけ処理を実行するように構成され、さらに、その何れかの音声区分に対応する音声区分特定語句の発話を促す問いかけ処理を実行したにも関わらず音声入力手段を介して音声が入力されなかった場合には、問いかけ処理によって既に発話を促された音声区分特定語句に対応する音声区分以外の音声区分の何れかに対応する音声区分特定語句の発話を促す問いかけ処理を実行するように構成されてもよい(請求項11)。また、情報出力処理では、表示手段を介して情報を画像表示出力し、さらに、切替手段は、音声区分特定手段によって特定された音声区分に基づき、表示手段を介して表示出力される情報の表示形態を切り替えるように構成されてもよい(請求項12)。
【0034】
ところで、以上はユーザインタフェース装置の発明として説明してきたが、上述したユーザインタフェース装置を備えるシステムの発明として実現することもできる。例えば、上述したユーザインタフェース装置を備え、ユーザインタフェース装置を介した情報入出力を行うことによって、所定の道案内を行うナビゲーションシステムの発明として実現することもできる。また、上述したユーザインタフェース装置を備え、ユーザインタフェース装置を介した情報入出力を行うことによって、所定の情報処理を行う情報処理装置の発明として実現することもできる。
【0035】
なお、上述したようなユーザインタフェース装置の切替手段、音声区分特定手段及び問いかけ手段をコンピュータシステムにて実現する機能は、例えば、コンピュータシステム側で起動するプログラムとして備えることができる。このようなプログラムの場合、例えば、フロッピーディスク、光磁気ディスク、CD−ROM、ハードディスク等のコンピュータ読み取り可能な記録媒体に記録し、必要に応じてコンピュータシステムにロードして起動することにより用いることができる。この他、ROMやバックアップRAMをコンピュータ読み取り可能な記録媒体として前記プログラムを記録しておき、このROMあるいはバックアップRAMをコンピュータシステムに組み込んで用いてもよい。
【0036】
【発明の実施の形態】
以下、本発明が適用された実施例について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施例に何ら限定されることなく、本発明の技術的範囲に属する限り、種々の形態を採り得ることは言うまでもない。
[第1実施例]
図1は実施例としてのナビゲーションシステム1の全体構成を示すブロック図である。本ナビゲーションシステム1は、制御部10を中心に構成されており、この制御部10に接続される音声入出力制御部20、音声辞書用メモリ30、表示装置40、位置検出部50、地図データ入力器60、操作スイッチ群70及びリモコンセンサ80を備えている。なお、制御部10は通常のコンピュータとして構成されており、内部には、CPU、ROM、RAM、I/Oおよびこれらの構成を接続するバスラインなどが備えられている。また、制御部10は、音声制御を司る音声制御部11を備えている。
【0037】
音声入出力制御部20は、音声制御部11に接続されており、音声出力制御部21と音声入力制御部22とを備えている。音声出力制御部21にはスピーカ21aが接続されており、音声制御部11からの指示に基づき音声出力制御部21にて音声がスピーカ21aを介して出力される。音声出力制御部21はアンプ等から構成されており、音声信号を増幅して出力する。この音声は、機械的に合成されたものとすることも考えられるし、あるいは、音声辞書用メモリ30に記憶された自然音声とすることも考えられる。一方、音声入力制御部22にはマイク22aが接続されており、音声入力制御部22は、フィルタ回路等から構成されており、マイク22aを介して入力されるユーザの入力音声から音声周波数以外のノイズを除去し、その後、音声制御部11へ送出する。
【0038】
また、上述した音声辞書用メモリ30には、音声認識のための語句を記憶した辞書が記憶される。図1では、音声認識のための認識対象語句を記憶した日本語辞書31、英語辞書32及びドイツ語辞書33が記憶されている。音声認識のための認識対象語句には、ナビゲーションシステム1を操作する音声コマンドが含まれる。また、これら辞書31〜33に記憶された語句は、後述するように、国語設定処理のための音声区分特定語句にも相当する。
【0039】
表示装置40は、液晶やCRT等を用いたカラーディスプレイである。この表示装置40を介して、ナビゲーションシステム1から利用者への情報表示が行われる。
位置検出部50は、いずれも周知の地磁気センサ51、ジャイロスコープ52、距離センサ53、及び衛星からの電波に基づいて車両の位置を検出するGPS(Global Positioning System )のためのGPS受信機54を有している。
【0040】
これらのセンサ等51,52,53,54は各々が性質の異なる誤差を持っているため、複数のセンサにより、各々補間しながら使用するように構成されている。なお、精度によっては上述した内の一部で構成してもよく、更に、ステアリングの回転センサ、各転動輪の車輪センサ等を用いてもよい。
【0041】
地図データ入力器60は、位置検出の精度向上のためのいわゆるマップマッチング用データ、地図データ等を含む各種データを入力するための装置である。記憶媒体としては、そのデータ量からCD−ROMを用いるのが一般的であるが、例えばDVDやメモリカード等の他の媒体を用いても差し支えない。
【0042】
操作スイッチ群70は、例えば表示装置40と一体になったタッチスイッチもしくはメカニカルなスイッチ等で構成され、各種入力に使用される。
リモコンセンサ80は、リモートコントロール端末(以下「リモコン」という。)80aを介した利用者の操作情報を取得する。
【0043】
上述した、制御部10、表示装置40、位置検出部50、地図データ入力器60、操作スイッチ群70、リモコンセンサ80等により、いわゆるナビゲーション装置が構成される。
表示装置40の画面には、位置検出部50から入力された車両現在地マークと、地図データ入力器60より入力された地図データと、更に地図上に表示する誘導経路、名称、目印等の付加データとを重ねて表示することができる。そして、本ナビゲーションシステム1では、リモコン80aを介してリモコンセンサ80から、操作スイッチ群70から、あるいは、マイク22aを介して音声入力制御部22から、目的地の位置および、必要に応じて高速道路等の特定の経路の指定(すなわち通過点の指定)を入力すると、現在地からその目的地までの最適な経路が自動的に選択され、誘導経路が形成されて表示される。このような自動的に最適な経路を設定する手法は、ダイクストラ法等の手法が知られている。そして、この誘導経路が形成され表示された後、車両の走行状況に応じて音声出力制御部21からスピーカ21aを介してルートを案内する音声が出力される。なお、この誘導経路の設定・表示については本発明の主要な特徴部分ではないので、詳しい説明は省略する。
【0044】
このようないわゆる経路案内機能に加えて、本実施例のナビゲーションシステム1は、情報出力処理に用いる国語を日本語、英語、ドイツ語のいずれかに切り替えることができる。情報出力処理とは、表示装置40を介した情報表示、およびスピーカ21aを介した音声出力をいう。例えば日本語に切り替えられた場合、表示装置40の画面に表示される地図上の名称をはじめ、上述した経路案内機能に用いられるメニュー表示が全て日本語でなされる。また、上述したようなルート案内のために出力される音声も日本語となる。
【0045】
本実施例のナビゲーションシステムの特徴は、このような使用国語の切り替えが利用者に合わせて簡単に実現できるようにした点にある。
そこで次に、上述した使用国語の切り替え手法を図2のブロック図に基づいて説明する。
【0046】
図2は、図1に示した全体構成の中の音声制御に係る部分のみを詳細に示したブロック図である。ここでは、図1との対応を分かり易くするため、図1と同一の符号を付した。
本実施例では、音声区分を設定しておき、マイク22aを介し音声入力制御部22から入力された利用者の入力音声が属する音声区分を特定し、その特定された音声区分に基づき、情報入出力に使用する国語を切り替える。
【0047】
したがって、音声区分は国語による区分(国語区分)としておく。そして、入力音声がどの音声区分(国語区分)に属するかを判断するために、それぞれの音声区分(国語区分)に対応させて音声区分特定語句を記憶しておく。この音声区分特定語句を記憶したのが音声辞書用メモリ30である。図2に示すように、音声辞書用メモリ30の日本語辞書31には、音声区分特定語句として、例えば「おはようございます」、「こんにちは」、「こんばんは」といった語句が記憶されている。また、音声辞書用メモリ30の英語辞書32には、音声区分特定語句として、例えば”Good morning”、”Good afternoon”、”Good evening”といった語句が記憶されている。同様に、音声辞書用メモリ30のドイツ語辞書33には、音声区分特定語句として、例えば”Guten Morgen”、”Guten Tag ”、”Guten Abend ”といった語句が記憶されている。なお、図2中には記載がないが、各辞書31〜33には、ナビゲーションシステム1を操作するための音声コマンドに対応する語句が含まれてことは上述した。
【0048】
そして、音声制御部11は、マイク22aを介し音声入力制御部22から入力された利用者の入力音声と、音声辞書用メモリ30の辞書31〜33に記憶された語句との一致を判断する。例えば図2に示すように入力音声が「こんにちは」であった場合には、日本語辞書31に記憶された語句「こんにちは」との一致が判断される。この場合は、情報入出力に使用する国語を日本語に設定する。これによって、音声制御部11は、音声出力制御部21に「日本語で案内します」という日本語の音声をスピーカ21aを介して出力させる。その後、音声出力制御部21からスピーカ21aを介して出力される音声、例えばルート案内のための音声や、図1に示す表示装置40による表示は、全て日本語となる。
【0049】
次に、上述した使用国語の切り替え手法を用いた国語設定処理を図3のフローチャートに基づいて説明する。なお、図3に示す国語設定処理は、音声制御部11にて実行されるものであり、本ナビゲーションシステム1への電源投入時に自動的に実行される。例えば車両に搭載した場合には、車両のエンジン始動時に、もしくは、アクセサリのオン(ACCオン)時に自動的に実行されることになる。ただし、これに限らず、例えば2時間というような所定時間間隔で実行されるようにしてもよいし、ユーザからのスイッチ操作によって実行されるようにしてもよい。
【0050】
まず最初のステップS100において、表示装置40による画面表示を行う。この処理は、ユーザからの音声入力を促す処理である。具体的には、図4に例示するような画面表示を行う。図4に示すような『日本語「こんにちは」』、『English”Good afternoon”』、『Deutsch”Guten Tag ”』との表示を行って利用者にいずれかの語句を発話させるのである。なお、図4では利用者が読み易い簡潔な表現を用いたが、『日本語で「こんにちは」とお話し下さい。』というような表現とすることも考えられる。
【0051】
続くS110では、音声入力及び音声認識を行う。利用者からの入力音声は、上述したようにマイク22aを介し音声入力制御部22から取り込まれる。したがって、ここでは、音声入力制御部22から入力音声を取り込み、上述したように、音声辞書用メモリ30の辞書31〜33に記憶された語句との一致を判断する。
【0052】
この音声認識結果に基づき、次のS120では、日本語で入力があったか否かを判断する。入力音声が日本語辞書31に記憶された語句と一致した場合に肯定判断される。ここで日本語で入力があったと判断された場合(S120:YES)、S130にて日本語に設定し、その後、本国語設定処理を終了する。一方、日本語で入力があったと判断されなかった場合(S120:NO)、S140へ移行する。
【0053】
S140では、S110の音声認識結果に基づき、英語で入力があったか否かを判断する。入力音声が英語辞書32に記憶された語句と一致した場合に肯定判断される。ここで英語で入力があったと判断された場合(S140:YES)、S150にて英語に設定し、その後、本国語設定処理を終了する。一方、英語で入力があったと判断されなかった場合(S140:NO)、S160へ移行する。
【0054】
S160では、S110の音声認識結果に基づき、ドイツ語で入力があったか否かを判断する。入力音声がドイツ語辞書33に記憶された語句と一致した場合に肯定判断される。ここでドイツ語で入力があったと判断された場合(S160:YES)、S170にてドイツ語に設定し、その後、本国語設定処理を終了する。一方、ドイツ語で入力があったと判断されなかった場合(S160:NO)、S110からの処理を繰り返す。
【0055】
なお、S110〜S160までの処理が所定回数(例えば3回)繰り返されても特定の国語が設定できなかった場合、本国語設定処理を中止し、処理実行前に設定されていた国語のまま情報の出力を行う。また、その場合、本国語設定処理を中止し、手動による国語設定、すなわち画面にメニューなどを表示して利用者に国語を選択させるようにしてもよい。
【0056】
次に、本実施例のナビゲーションシステム1が発揮する効果の説明に移る。
従来より、スイッチ操作によって国語を切り替える装置は実現されていた。しかし、その場合、利用者は特定のスイッチ操作を覚えておく必要があった。このスイッチの代わりに音声を用いることも考えられるが、スイッチと同様に、ある特定の音声コマンドを覚えて入力する必要があった。
【0057】
これに対して本実施例のナビゲーションシステム1では、入力音声そのものをコマンドとして使用するのではなく、不特定の入力音声から、その入力音声が日本語であるか(図3中S120)、英語であるか(S140)、あるいは、ドイツ語であるか(S160)を判断し、その判断結果に応じて、情報出力に用いる国語を切り替える(S130,S150,S170)。これによって、ある特定の音声コマンドを覚えていなくても、利用者に合わせた国語への切り替えが極めて簡単に実現される。
【0058】
また、本実施例では、利用者に対し音声入力を促す画面表示を行う(図3中のS100)。この画面表示による利用者への問いかけによって、利用者に対し全く任意の発話を促すのではなく、辞書31〜33に記憶された音声区分特定語句の発話を利用者に促すのである。その結果、利用者の入力音声が限られた語句となる可能性が高く、辞書31〜33に記憶された語句が比較的少なくても、入力音声を判断でき、適切に国語の切り替えが行われる可能性が高くなる。
【0059】
さらに、辞書31〜33には、ナビゲーションシステム1を操作するための音声コマンドに対応する語句も記憶されているため、S100における画面表示に関係なく利用者が音声コマンドを発話したときでも、音声区分(国語区分)が特定され、国語の切り替えがなされる。
【0060】
なお、本実施例におけるマイク22a及び音声入力制御部22が「音声入力手段」に相当し、音声制御部11が「音声区分特定手段」、「切替手段」、「問いかけ手段」に相当する。
そして、図3中のS100の処理が問いかけ手段としての処理に相当し、S110の処理が音声区分特定手段としての処理に相当し、S120〜S170の処理が切替手段としての処理に相当する。
[第2実施例]
第2実施例は、上記第1実施例に対し、図3に示した国語設定処理が異なるものであり、その他のハードウェア構成は同じである。そこで、本実施例では、上記第1実施例と異なる国語設定処理のみを説明する。なお、ハードウェア構成を記述する場合には、上記第1実施例と同一の符号を付す。
【0061】
本実施例における国語設定処理は、図5に示すフローチャートに示す如くである。なお、この国語設定処理も、音声制御部11にて実行されるものであり、本ナビゲーションシステムへの電源投入時に自動的に実行される。例えば車両に搭載した場合には、車両のエンジン始動時に、もしくは、アクセサリのオン(ACCオン)時に自動的に実行されることになる。ただし、例えば2時間というような所定時間間隔で実行されるようにしてもよいし、ユーザからのスイッチ操作によって実行されるようにしてもよい。
【0062】
まず最初のステップS200において、日本語による問いかけを行う。この処理は、音声出力制御部21にスピーカ21aを介した音声出力を指示するものであり、ユーザからの音声入力を促すものである。具体的には、午前中であれば「おはようございます。」、午後であれば「こんにちは」、夜間であれば「こんばんは」という音声出力を行う。
【0063】
続くS210では、音声入力及び音声認識を行う。この処理は、第1実施例中で説明した図3のS110の処理と同様の処理である。すなわち、入力音声を取り込み、音声辞書用メモリ30の辞書31〜33に記憶された語句との一致を判断する。S200の問いかけに対して利用者は、「おはようございます」、「こんにちは」、「こんばんは」という発話をする可能性が高い。したがって、このような利用者の入力音声を認識するのである。
【0064】
この音声認識結果に基づき、次のS220では、日本語で入力があったか否かを判断する。ここでは入力音声が日本語辞書31に記憶された語句と一致した場合に肯定判断される。ここで日本語で入力があったと判断された場合(S220:YES)、S230にて日本語に設定し、その後、本国語設定処理を終了する。一方、日本語で入力があったと判断されなかった場合(S220:NO)、S240へ移行する。
【0065】
S240では、英語による問いかけを行う。この処理は、上記S200と同様、音声出力制御部21にスピーカ21aを介した音声出力を指示するものであり、ユーザからの音声入力を促すものである。具体的には、午前中であれば”Good morning”、午後であれば”Good afternoon”、夜間であれば”Good evening”という音声出力を行う。
【0066】
続くS250では、音声入力及び音声認識を行う。ここでは、上記S210と同様に、入力音声を取り込み、音声辞書用メモリ30の辞書31〜33に記憶された語句との一致を判断する。S240の問いかけに対する利用者の入力音声を認識するのである。
【0067】
この音声認識結果に基づき、次のS260では、英語で入力があったか否かを判断する。ここでは入力音声が英語辞書32に記憶された語句と一致した場合に肯定判断される。ここで英語で入力があったと判断された場合(S260:YES)、S270にて英語に設定し、その後、本国語設定処理を終了する。一方、英語で入力があったと判断されなかった場合(S260:NO)、S280へ移行する。
【0068】
S280では、ドイツ語による問いかけを行う。この処理は、上記S200,S240と同様、音声出力制御部21にスピーカ21aを介した音声出力を指示するものであり、ユーザからの音声入力を促すものである。具体的には、午前中であれば”Guten Morgen”、午後であれば”Guten Tag ”、夜間であれば”Guten Abend ”という音声出力を行う。
【0069】
続くS290では、音声入力及び音声認識を行う。ここでは、上記S210,S250と同様に、入力音声を取り込み、音声辞書用メモリ30の辞書31〜33に記憶された語句との一致を判断する。S280の問いかけに対する利用者の入力音声を認識するのである。
【0070】
この音声認識結果に基づき、次のS300では、ドイツ語で入力があったか否かを判断する。ここでは入力音声がドイツ語辞書33に記憶された語句と一致した場合に肯定判断される。ここでドイツ語で入力があったと判断された場合(S300:YES)、S310にてドイツ語に設定し、その後、本国語設定処理を終了する。一方、ドイツ語で入力があったと判断されなかった場合(S300:NO)、S200からの処理を繰り返す。
【0071】
つまり、上記第1実施例は表示装置40による画面表示(図3中のS100)にて利用者の発話を促す構成であったのに対し、本実施例は、音声による問いかけを行い(S200,S240,S280)、利用者の発話を促す構成である。なお、S200〜300までの処理が所定回数(例えば3回)繰り返されても特定の国語が設定できなかった場合、本国語設定処理を中止し、処理実行前に設定されていた国語のまま情報の出力を行う。また、その場合、本国語設定処理を中止し、手動による国語設定、すなわち画面にメニューなどを表示して利用者に国語を選択させるようにしてもよい。
【0072】
本実施例のナビゲーション装置1によっても、上記第1実施例と同様の効果が得られる。すなわち、ある特定の音声コマンドを利用者が覚えていなくても、利用者に合わせた国語への切り替えが極めて簡単に実現される。また、音声による利用者への問いかけによって(図5中のS200,S240,S280)、辞書31〜33に記憶された音声区分特定語句の発話を利用者に促すため、利用者の入力音声が限られた語句となる可能性が高く、辞書31〜33に記憶された語句が比較的少なくても、入力音声を判断でき、適切な国語の切り替えが実現される可能性が高くなる。さらに利用者が音声コマンドを発話したときでも、音声区分(国語区分)が特定され、国語の切り替えがなされるのも同様である。
【0073】
また、本実施例において、音声による問いかけに対して、そのときの国語が理解できない場合、操作者は無言となることがある。逆に言うと、理解できる国語に対しては何らかの応答(例えば日本語であれば「おっす」とか「うん」など)を返すことが考えられる。したがって、音声による問いかけに対する操作者の上述した何らかの応答語に応じて国語を設定し、以降その国語にて装置が情報を出力するようにしてもよい。この場合、それらの応答語は音声辞書用メモリ30にそれぞれ格納されているものとする。
【0074】
なお、本実施例においても、図1中のマイク22a及び音声入力制御部22が「音声入力手段」に相当し、音声制御部11が「音声区分特定手段」、「切替手段」、「問いかけ手段」に相当する。そして、図5中のS200、S240及びS280の処理が問いかけ手段としての処理に相当し、S210、S250及びS290の処理が音声区分特定手段としての処理に相当し、S220、S230、S260、S270、S300及びS310の処理が、切替手段としての処理に相当する。
[第3実施例]
上記第1及び第2実施例は、ナビゲーションシステム1としての実施を示すものであった。これに対して、本第3実施例は、携帯情報端末3としての実施を示すものである。
【0075】
図6は第3実施例としての携帯情報端末3の全体構成を示すブロック図である。なお、上記第1及び第2実施例のナビゲーションシステム1と同様に構成された部分については同じ符号を付してある。
本携帯情報端末3は、制御部10を中心に構成されており、この制御部10に接続される音声入出力制御部20、音声辞書用メモリ30、表示装置40、操作スイッチ70、記憶部91、通信インターフェース(以下「通信I/F」という。)92及びデータ記憶部93を備えている。
【0076】
なお、制御部10、音声入出力制御部20、表示装置40、操作スイッチ群70については、上記第1及び第2実施例と同一の構成であるため、説明は省略する。
本携帯情報端末3も音声辞書用メモリ30を備えているが、ここには子供辞書34及びお年寄り辞書35が記憶されている点で上記実施例と異なっている。これら辞書34,35には、後述する出力形態設定処理のための音声区分特定語句が記憶されている。
【0077】
記憶部91はいわゆるハードディスクなどの記憶装置で構成され、各種アプリケーションソフトが記憶されている。本実施例では、アプリケーションソフトとして、ワープロソフト91a、ネットブラウザ91b、音楽再生ソフト91c、映画再生ソフト91d及びゲームソフト91eが記憶されている。
【0078】
通信I/F92は、携帯電話機を接続できるインターフェースである。上述したネットブラウザ91bは、この通信I/F92を用いてインターネットへの接続を可能にする。ネットブラウザ91bを利用すれば、利用者は、Eメールのやりとりやネットサーフィンが可能となる。また、音楽再生ソフト91c及び映画再生ソフト91dは、通信I/F92を介して所定のセンタへ接続し、利用者の所望する音楽データ、映画データを取得し、取得した音楽データ、映画データの再生を行う。音楽は、音声出力制御部21からスピーカ21aを介して出力される。映像は、表示装置40による表示される。また、ゲームソフト91eからも、通信I/F92が使用され、見知らぬ相手との通信による対戦ゲームを行うことができる。なお、ここでは、アプリケーションソフトを主語とした表現を用いたが、実際には、アプリケーションソフトが制御部10のRAMへ展開され、制御部10のCPUによって実行され、上述した動作がなされることは言うまでもない。
【0079】
データ記憶部93は、上述した音楽再生ソフト91cや映画再生ソフト91dの再生対象となる音楽データ及び映画データを記憶する大容量記憶装置である。このように構成された本携帯情報端末3では、表示装置40に表示されるメニューに従い、利用者が所望する情報サービスを受けられるようになっている。
【0080】
図7は、表示装置40に表示されるトップメニューを示している。原則的に、本携帯情報端末3では、図7に示すように、「ワープロ」、「ネットサーフ」、「Eメール」、「音楽」、「映画」、「ゲーム」、「オプション」という計7つのアイコンが画面上に表示される。そして、利用者が画面上のアイコンを指で触れると、表示装置40と一体となった操作スイッチ群70を介して、制御部10へメニュー選択情報が入力される。これによって、上述したアイコンに対応するアプリケーションソフトが記憶部91から制御部10へ読み出されて実行される。なお、「オプション」アイコンが選択されると、携帯情報端末3の諸機能をカスタマイズするためのシステムメニューが起動される。
【0081】
上述のように、原則的に7つのアイコンが表示されるとしたのは、本携帯情報端末3では、トップメニューの表示形態、すなわちトップメニューに表示されるアイコンを利用者の年齢に応じて切り替えることができるようになっているからである。
【0082】
そこで次に、上述したトップメニュー表示形態の切り替え手法を説明する。
本実施例でも、上記第1及び第2実施例と同様に、音声区分を設定しておき、マイク22aを介し音声入力制御部22から入力された利用者の入力音声が属する音声区分を特定し、その特定された音声区分に基づき、トップメニューの表示形態を切り替える。
【0083】
したがって、音声区分は年齢による区分(年齢区分)としておく。そして、入力音声がどの音声区分(年齢区分)に属するかを判断するために、それぞれの音声区分(年齢区分)に対応させて音声区分特定語句を記憶しておく。この音声区分特定語句を記憶したのが音声辞書用メモリ30である(図6参照)。本実施例において年齢区分は、子供、大人、お年寄りという3つの区分としている。音声辞書用メモリ30の子供辞書34には、子供の区分に対応する音声区分特定語句が記憶されている。この語句は、子供しか知らないような語句、例えば子供が見るテレビ番組の主人公の名前などとする。音声辞書用メモリ30のお年寄り辞書35には、お年寄りの区分に対応する音声区分特定語句が記憶されている。この語句は、お年寄りしか知らないような語句、例えばお年寄りでなければ分からないようなタレントの名前などとする。
【0084】
そして、音声制御部11は、マイク22aを介し音声入力制御部22から入力された利用者の入力音声と、音声辞書用メモリ30の辞書34,35に記憶された語句との一致を判断する。入力音声が子供辞書34に記憶された語句と一致すれば、入力音声が子供の区分に属することが判断される。一方、入力音声がお年寄り辞書35に記憶された語句と一致すれば、入力音声がお年寄りの区分に属することが判断される。このように入力音声が属する音声区分(年齢区分)が特定されると、この音声区分(年齢区分)に基づいて、音声制御部11がトップメニューの表示形態を切り替える。
【0085】
次に、上述したトップメニュー表示形態の切り替え手法を用いた出力形態設定処理を図8のフローチャートに基づいて説明する。なお、図8に示す出力形態設定処理は、音声制御部11にて実行されるものであり、本形態情報端末3への電源投入時に自動的に実行される。ただし、例えば2時間というような所定時間間隔で実行されるようにしてもよいし、例えば操作スイッチ群70を介した利用者からのスイッチ操作によって実行されるようにしてもよい。
【0086】
まず最初のステップS400において、表示装置40による画面表示を行う。この処理は、ユーザからの音声入力を促す処理であり、図9に例示するような画面表示を行う。具体的には、子供しか知らないようなテレビ番組の主人公(記号Aで示した)と、お年寄りしか知らないようなタレント(記号Bで示した)とを並べて表示する。そして、「どちらか一方の名前を答えて下さい」という表示を行う。これによって、利用者が子供であれば、テレビ番組の主人公の名前を答えるであろうし、利用者がお年寄りであれば、タレントの名前を答えるであろうと推定できる。
【0087】
続くS410では、音声入力及び音声認識を行う。利用者からの入力音声は、上述したようにマイク22aを介し音声入力制御部22から取り込まれる。したがって、ここでは、この入力音声を取り込み、音声辞書用メモリ30の辞書34,35に記憶された語句との一致を判断する。
【0088】
この音声認識結果に基づき、次のS420では、子供であるか否かを判断する。ここでは入力音声が子供辞書34に記憶された語句と一致した場合に肯定判断される。ここで子供であると判断された場合(S420:YES)、S430にて子供用メニューを設定し、その後、本出力形態設定処理を終了する。子供用メニューでは、例えば図10(a)に示すように、「ワープロ」アイコン及びカスタマイズを行うための「オプション」アイコンを表示しないようにすることが考えられる。一方、子供であると判断されなかった場合(S420:NO)、S440へ移行する。
【0089】
S440では、S410の音声認識結果に基づき、お年寄りであるか否かを判断する。ここでは入力音声がお年寄り辞書35に記憶された語句と一致した場合に肯定判断される。ここでお年寄りであると判断された場合(S440:YES)、S450にてお年寄り用メニューを設定し、その後、本出力形態設定処理を終了する。お年寄り用メニューでは、例えば図10(b)に示すように、使用する可能性の低い「ゲーム」アイコン及び細かなカスタマイズを行うための「オプション」アイコンを表示しないようにすることが考えられる。一方、お年寄りであると判断されなかった場合(S440:NO)、S460にて大人用メニューを設定し、その後、本出力形態設定処理を終了する。大人用メニューでは、例えば図7に示すように、全てのアイコンを表示することが考えられる。
【0090】
なお、子供、お年寄り、もしくは大人の特定をより確かなものにするため、S440で否定判断された場合に(S440:NO)、S400に戻り、図9に例示するようなキャラクタ表示を変更するなどし、画面表示の内容を変えて以降S410〜S440の処理を実行してもよい。このときは、この繰り返し処理が所定回数繰り返されても子供もしくはお年寄りの特定ができなかった場合に、大人として特定する。
【0091】
本実施例の携帯情報端末3でも、上記第1及び第2実施例と同様に、入力音声そのものをコマンドとして使用するのではなく、不特定の入力音声から、その音声を発話したのが子供であるか(図8中のS420)、お年寄りであるか(S440)を判断し、その判断結果に応じて、トップメニューの表示形態を切り替える(S430,S450,S460)。これによって、ある特定の音声コマンドを覚えていなくても、利用者に合わせた出力形態への切り替えが極めて簡単に実現される。
【0092】
また、本実施例でも、利用者に対し音声入力を促す画面表示を行う(図8中のS400)。この画面表示による利用者への問いかけによって、辞書34,35に記憶された音声区分特定語句の発話を利用者に促すのである。その結果、利用者の入力音声が限られた語句となる可能性が高く、辞書34,35に記憶された語句が限られたものであっても、入力音声を判断できる可能性が高くなる。
【0093】
なお、本実施例においては、図6中のマイク22a及び音声入力制御部22が「音声入力手段」に相当し、音声制御部11が「音声区分特定手段」、「切替手段」及び「問いかけ手段」に相当する。そして、図8中のS400の処理が問いかけ手段としての処理に相当し、S410の処理が音声区分特定手段としての処理に相当し、S420〜S460の処理が切替手段としての処理に相当する。
[その他]
(イ)上記第1及び第2実施例では、情報出力に用いる国語を日本語、英語、ドイツ語のいずれかに切り替えるものであったが、例えばフランス語、イタリア語、スペイン語などに切り替えることも、それぞれの国語に対応する辞書を音声辞書用メモリ30に記憶することで実現できる。
【0094】
なお、情報出力処理には、必ずしも国語を用いる必要はない。つまり、国語よりも広い概念である言語を用いることも考えられる。ここでいう言語は、音声または文字を手段として人の思想・感情・意志を表現・伝達するための記号体系として定義できる。また、言語以外の図形や絵を用いて情報出力を行うことも可能である。これらの場合であっても、その情報出力処理の情報出力形態を切り替えることはできるからである。
【0095】
(ロ)また、上記第1及び第2実施例の国語設定処理では「こんにちは」といった挨拶に用いる語句を利用者が発話するように促したが(図3中のS100,図5中のS200,S240,S280)、これには限定されない。つまり、利用者の回答が予想されるような問いかけを行うようにすればよく、「元気ですか」や「どちらまで行きますか」等の文句を表示したり、発話したりするようにしてもよい。この場合、利用者は、「元気ですか」に対して、「元気です」、「はい」、「いいえ」などと回答することが予想されるし、「どちらまで行きますか」に対しては、施設名称や地名を回答することが予想されるからである。したがって、辞書31〜33に「元気です」といった語句、施設名称、地名を記憶しておけば、音声区分(国語区分)を特定することができる。
【0096】
(ハ)上記第1及び第2実施例では、情報出力に用いる国語を切り替えるものであったが、上記(2)として述べたように情報出力に用いる言語体系を切り替えるものとすることもできる。この場合には、音声辞書用メモリ30に標準語や方言が記憶された辞書を記憶すればよい。例えば、大阪弁、名古屋弁、東北弁という切り替えを行う場合には、大阪弁の語句が記憶された辞書、名古屋弁の語句が記憶された辞書、東北弁の語句が記憶された辞書をそれぞれ記憶しておく。
【0097】
また、上記(3)として述べたように、装置側音声を男性の音声又は女性の音声のいずれかに切り替えるようすることもできる。この場合、音声辞書用メモリ30に男性のみが使用すると想定される語句を記憶した辞書と、女性のみが使用すると想定される語句を記憶した辞書とを記憶すればよい。女性のみが使用する語句には、いわゆる女言葉(女性語)を記憶しておくことが考えられる。
【0098】
さらにまた、上記第3実施例のように、利用者の年齢に応じて情報の出力形態を切り替えるようにすることももちろんできる。
(ニ)上記第1及び第2実施例では、音声辞書用メモリ30の辞書31〜33に、ナビゲーションシステム1を操作するための音声コマンドに対応する語句を認識対象語句として記憶していた。そして、入力音声の音声認識を行い、利用者からの音声による情報入力を実現している。
【0099】
このようにナビゲーションシステム1を操作するための音声コマンドに対応する語句を、常時、辞書31〜33に記憶しておく構成としてもよいが、音声辞書用メモリ30に記憶できる認識対象語句の数が装置の性能などによって制限される場合もある。そのため、使用国語等の切り替えに応じて、音声辞書用メモリ30に記憶する辞書を変更する構成としてもよい。例えば国語が日本語に切り替わった場合は、利用者は日本語でナビゲーションシステム1への情報入力を行う可能性が高いため、音声用辞書メモリ30に日本語の辞書を設定するという具合である。このようにすれば、利用者に応じた適切な辞書が音声辞書用メモリ30に記憶されることになるため、音声によるスムーズな情報入力が可能となる。
【図面の簡単な説明】
【図1】第1及び第2実施例のナビゲーションシステムの概略構成を示すブロック図である。
【図2】音声制御に係る部分の構成を示すブロック図である。
【図3】第1実施例の国語設定処理を示すフローチャートである。
【図4】第1実施例の国語設定処理中の画面表示処理で表示される画面を例示する説明図である。
【図5】第2実施例の国語設定処理を示すフローチャートである。
【図6】第3実施例の携帯情報端末の概略構成を示すブロック図である。
【図7】携帯情報端末のトップメニューを表示画面を示す説明図である。
【図8】第3実施例の出力形態設定処理を示すフローチャートである。
【図9】出力形態設定処理中の画面表示処理で表示される画面を例示する説明図である。
【図10】トップメニューの表示形態の切り替えを例示する説明図である。
【符号の説明】
1…ナビゲーションシステム
10…制御部 11…音声制御部
20…音声入出力制御部 21…音声出力制御部
21a…スピーカ 22…音声入力制御部
22a…マイク 30…音声辞書用メモリ
31…日本語辞書 32…英語辞書
33…ドイツ語辞書 40…表示装置
50…位置検出部 51…地磁気センサ
52…ジャイロスコープ 53…距離センサ
54…GPS受信機 60…地図データ入力器
70…操作スイッチ群 80…リモコンセンサ
80a…リモコン 91…記憶部
91a…ワープロソフト 91b…ネットブラウザ
91c…音楽再生ソフト 91d…映画再生ソフト
91e…ゲームソフト 92…通信I/F
93…データ記憶部
Claims (15)
- 利用者と所定のシステムとの間で情報のやりとりを行うために用いられ、前記利用者への情報出力処理において複数の情報出力形態を切り替え可能なユーザインタフェース装置において、
前記利用者の音声を入力するための音声入力手段と、
予め設定された音声区分にそれぞれ対応させて記憶された音声区分特定語句の発話を、前記利用者に対して促す問いかけ処理を実行する問いかけ手段と、
前記問いかけ手段による問いかけ処理の実行後に該音声入力手段を介して入力された入力音声と、前記音声区分特定語句との一致を判断し、前記入力音声が属する前記音声区分を特定する音声区分特定手段と、
該音声区分特定手段によって特定された前記音声区分に基づき、前記情報出力処理における情報出力形態を切り替える切替手段と、
を備えることを特徴とするユーザインタフェース装置。 - 請求項1に記載のユーザインタフェース装置において、
前記情報出力処理に国語を用いる場合には、当該国語を前記情報出力形態として切り替えることができ、
前記音声区分には、利用者の使用する国語による区分である国語区分が含まれており、
前記切替手段は、前記音声区分特定手段にて特定された前記国語区分に基づいて、前記情報出力処理に用いる国語を切り替えること
を特徴とするユーザインタフェース装置。 - 請求項1又は2に記載のユーザインタフェース装置において、
前記情報出力処理に国語を用いるとき、当該国語が標準語及び方言からなる複数の言語体系を有している場合には、前記情報出力形態として当該言語体系を切り替えることができ、
前記音声区分には、利用者の使用する前記言語体系による区分である方言区分が含まれており、
前記切替手段は、前記音声区分特定手段にて特定された前記方言区分に基づいて、前記情報出力処理に用いる前記言語体系を切り替えること
を特徴とするユーザインタフェース装置。 - 請求項1〜3のいずれかに記載のユーザインタフェース装置において、
前記情報出力形態として、前記情報出力処理に用いる装置側音声を男性の音声又は女性の音声に切り替えることができ、
前記音声区分には、利用者の性別による区分である性別区分が含まれており、
前記切替手段は、前記音声区分特定手段にて特定された前記性別区分が男性の区分であれば前記装置側音声を女性の音声に切り替え、一方、前記性別区分が女性の区分であれば前記装置側音声を男性の音声に切り替えること
を特徴とするユーザインタフェース装置。 - 請求項1〜4のいずれかに記載のユーザインタフェース装置において、
前記情報出力形態として、利用者の年齢に応じた形態を有し、
前記音声区分には、利用者の年齢による区分である年齢区分が含まれており、
前記切替手段は、前記音声区分特定手段にて特定された前記年齢区分に基づいて、利用者の年齢に応じた前記情報出力形態へ切り替えること
を特徴とするユーザインタフェース装置。 - 請求項1〜5のいずれかに記載のユーザインタフェース装置において、
さらに、
利用者からの音声による情報入力を実現するために、認識対象語句を用いて音声認識を行う音声認識手段と、
前記切替手段にて切り替えられた前記情報出力形態に応じて、前記音声認識手段による音声認識に用いられる前記認識対象語句を変更する認識対象語句切替手段を備えていること
を特徴とするユーザインタフェース装置。 - 請求項1〜6のいずれかに記載のユーザインタフェース装置において、
前記音声特定語句は、前記音声区分を表す名称以外の語句である
ことを特徴とするユーザインタフェース装置。 - 請求項1〜7のいずれかに記載のユーザインタフェース装置において、
前記問いかけ手段による問いかけ処理は、表示手段を介した表示処理であること
を特徴とするユーザインタフェース装置。 - 請求項1〜8のいずれかに記載のユーザインタフェース装置において、
前記問いかけ手段による問いかけ処理は、音声を用いた発話処理であること
を特徴とするユーザインタフェース装置。 - 請求項1〜9のいずれかに記載のユーザインタフェース装置において、
前記切替手段は、前記問いかけ手段が問いかけ処理を実行したにも関わらず前記音声入力手段を介して音声が入力されなかった場合には、前記問いかけ手段が発話を促す音声区分特定語句に対応する音声区分に基づく前記情報出力形態の切り替えを実行しない
ことを特徴とするユーザインタフェース装置。 - 請求項1〜10のいずれかに記載のユーザインタフェース装置において、
前記問いかけ手段は、予め設定された複数の前記音声区分の中の何れかに対応する前記音声区分特定語句の発話を促す問いかけ処理を実行するように構成され、さらに、前記何れかの音声区分に対応する音声区分特定語句の発話を促す問いかけ処理を実行したにも関わらず前記音声入力手段を介して音声が入力されなかった場合には、前記問いかけ処理によって既に発話を促された音声区分特定語句に対応する音声区分以外の前記音声区分の何れかに対応する前記音声区分特定語句の発話を促す問いかけ処理を実行するように構成されている
ことを特徴とするユーザインタフェース装置。 - 請求項1〜11のいずれかに記載のユーザインタフェース装置において、
前記情報出力処理では、表示手段を介して情報を画像表示出力し、
前記切替手段は、前記音声区分特定手段によって特定された前記音声区分に基づき、前記表示手段を介して表示出力される情報の表示形態を切り替える
ことを特徴とするユーザインタフェース装置。 - 請求項1〜12のいずれかに記載のユーザインタフェース装置を備え、
前記ユーザインタフェース装置を介した情報入出力を行うことによって、所定の道案内を行うナビゲーションシステム。 - 請求項1〜12のいずれかに記載のユーザインタフェース装置を備え、
前記ユーザインタフェース装置を介した情報入出力を行うことによって、所定の情報処理を行う情報処理装置。 - 請求項1〜5のいずれかに記載のユーザインタフェース装置の前記音声区分特定手段、前記切替手段、及び前記問いかけ手段としてコンピュータシステムを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26230199A JP4292646B2 (ja) | 1999-09-16 | 1999-09-16 | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 |
US09/634,759 US6243675B1 (en) | 1999-09-16 | 2000-08-08 | System and method capable of automatically switching information output format |
DE10045020A DE10045020A1 (de) | 1999-09-16 | 2000-09-12 | System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26230199A JP4292646B2 (ja) | 1999-09-16 | 1999-09-16 | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001083991A JP2001083991A (ja) | 2001-03-30 |
JP4292646B2 true JP4292646B2 (ja) | 2009-07-08 |
Family
ID=17373893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26230199A Expired - Lifetime JP4292646B2 (ja) | 1999-09-16 | 1999-09-16 | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US6243675B1 (ja) |
JP (1) | JP4292646B2 (ja) |
DE (1) | DE10045020A1 (ja) |
Families Citing this family (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4200607B2 (ja) * | 1999-09-03 | 2008-12-24 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム格納媒体 |
US7349843B1 (en) * | 2000-01-18 | 2008-03-25 | Rockwell Electronic Commercial Corp. | Automatic call distributor with language based routing system and method |
JP3908437B2 (ja) * | 2000-04-14 | 2007-04-25 | アルパイン株式会社 | ナビゲーションシステム |
WO2002010900A2 (en) * | 2000-07-28 | 2002-02-07 | Siemens Automotive Corporation | User interface for telematics systems |
DE10061696A1 (de) * | 2000-12-12 | 2002-06-27 | Bernhard Lehmeier | Fahrzeug-Navigationssystem |
US7013260B2 (en) * | 2001-01-30 | 2006-03-14 | Sysmex Corporation | Display device and sample analysis device equipped with the display device |
JP4626089B2 (ja) * | 2001-05-21 | 2011-02-02 | 三菱電機株式会社 | 個人適応型装置及び情報配信機器 |
JP4084550B2 (ja) * | 2001-07-05 | 2008-04-30 | アルパイン株式会社 | ナビゲーション装置 |
US7949513B2 (en) * | 2002-01-22 | 2011-05-24 | Zi Corporation Of Canada, Inc. | Language module and method for use with text processing devices |
JP2004037721A (ja) * | 2002-07-02 | 2004-02-05 | Pioneer Electronic Corp | 音声応答システム、音声応答プログラム及びそのための記憶媒体 |
US7418095B2 (en) * | 2003-03-06 | 2008-08-26 | At&T Knowledge Ventures, L.P. | System and method for providing caller activities while in queue |
DE10324425B4 (de) | 2003-05-30 | 2018-10-18 | Robert Bosch Gmbh | Verfahren zur Aufbereitung akustischer Fahranweisungen sowie Navigationsendgerät hierzu |
US8090402B1 (en) | 2003-09-26 | 2012-01-03 | Iwao Fujisaki | Communication device |
JP2005283531A (ja) * | 2004-03-31 | 2005-10-13 | Equos Research Co Ltd | 車載装置及びデータ作成装置 |
US7742923B2 (en) * | 2004-09-24 | 2010-06-22 | Microsoft Corporation | Graphic user interface schemes for supporting speech recognition input systems |
JP2006111134A (ja) * | 2004-10-14 | 2006-04-27 | Pioneer Electronic Corp | 挙動案内装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体 |
TW200638294A (en) * | 2005-04-22 | 2006-11-01 | Mitac Int Corp | Navigation system and method capable of switching to multinational language operating interface |
KR100678201B1 (ko) * | 2005-04-25 | 2007-02-02 | 삼성전자주식회사 | 휴대단말기에서 메인언어를 설정하는 방법 |
JP4804052B2 (ja) * | 2005-07-08 | 2011-10-26 | アルパイン株式会社 | 音声認識装置、音声認識装置を備えたナビゲーション装置及び音声認識装置の音声認識方法 |
US8719034B2 (en) | 2005-09-13 | 2014-05-06 | Nuance Communications, Inc. | Displaying speech command input state information in a multimodal browser |
SG133419A1 (en) * | 2005-12-12 | 2007-07-30 | Creative Tech Ltd | A method and apparatus for accessing a digital file from a collection of digital files |
CN101331537A (zh) | 2005-12-14 | 2008-12-24 | 三菱电机株式会社 | 声音识别装置 |
EP1801709A1 (en) * | 2005-12-23 | 2007-06-27 | Harman Becker Automotive Systems GmbH | Speech generating system |
JP2007193166A (ja) * | 2006-01-20 | 2007-08-02 | Kenwood Corp | 対話装置、対話方法及びプログラム |
JP4997796B2 (ja) * | 2006-03-13 | 2012-08-08 | 株式会社デンソー | 音声認識装置、及びナビゲーションシステム |
US20080003551A1 (en) * | 2006-05-16 | 2008-01-03 | University Of Southern California | Teaching Language Through Interactive Translation |
US8706471B2 (en) * | 2006-05-18 | 2014-04-22 | University Of Southern California | Communication system using mixed translating while in multilingual communication |
US8032355B2 (en) * | 2006-05-22 | 2011-10-04 | University Of Southern California | Socially cognizant translation by detecting and transforming elements of politeness and respect |
US8032356B2 (en) * | 2006-05-25 | 2011-10-04 | University Of Southern California | Spoken translation system using meta information strings |
CN101097138B (zh) * | 2006-06-30 | 2010-09-22 | 佛山市顺德区顺达电脑厂有限公司 | 一种实时切换语言的导航系统及其方法 |
EP1902906B1 (en) * | 2006-09-22 | 2017-07-26 | Harman Becker Automotive Systems GmbH | Add-on module for externally controlling a speech dialog system |
US7873517B2 (en) | 2006-11-09 | 2011-01-18 | Volkswagen Of America, Inc. | Motor vehicle with a speech interface |
US20080167807A1 (en) * | 2007-01-09 | 2008-07-10 | Jien-Yang Chang | Navigation system with immediate language transform and method thereof |
JP2008170210A (ja) * | 2007-01-10 | 2008-07-24 | Pioneer Electronic Corp | ナビゲーション装置、その方法、そのプログラム及びその記録媒体 |
US20080177529A1 (en) * | 2007-01-24 | 2008-07-24 | Kristi Roberts | Voice-over device and method of use |
DE102007011039B4 (de) * | 2007-03-07 | 2019-08-29 | Man Truck & Bus Ag | Freisprecheinrichtung in einem Kraftfahrzeug |
JP4985068B2 (ja) * | 2007-04-11 | 2012-07-25 | トヨタ自動車株式会社 | 名称表示装置 |
US20090171665A1 (en) * | 2007-12-28 | 2009-07-02 | Garmin Ltd. | Method and apparatus for creating and modifying navigation voice syntax |
US8099289B2 (en) * | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
JP4873497B2 (ja) * | 2008-07-30 | 2012-02-08 | 株式会社モリタ製作所 | 医療用実習装置 |
US9323854B2 (en) * | 2008-12-19 | 2016-04-26 | Intel Corporation | Method, apparatus and system for location assisted translation |
US11416214B2 (en) | 2009-12-23 | 2022-08-16 | Google Llc | Multi-modal input on an electronic device |
EP3091535B1 (en) | 2009-12-23 | 2023-10-11 | Google LLC | Multi-modal input on an electronic device |
JP5535676B2 (ja) * | 2010-02-15 | 2014-07-02 | アルパイン株式会社 | ナビゲーション装置 |
JP5423535B2 (ja) * | 2010-03-31 | 2014-02-19 | アイシン・エィ・ダブリュ株式会社 | ナビゲーション装置及びナビゲーション方法 |
US8600732B2 (en) * | 2010-11-08 | 2013-12-03 | Sling Media Pvt Ltd | Translating programming content to match received voice command language |
US8352245B1 (en) | 2010-12-30 | 2013-01-08 | Google Inc. | Adjusting language models |
US8296142B2 (en) | 2011-01-21 | 2012-10-23 | Google Inc. | Speech recognition using dock context |
JP2012185303A (ja) * | 2011-03-04 | 2012-09-27 | Toshiba Tec Corp | 情報処理装置およびプログラム |
JP5250066B2 (ja) * | 2011-03-04 | 2013-07-31 | 東芝テック株式会社 | 情報処理装置およびプログラム |
JP2013069060A (ja) * | 2011-09-21 | 2013-04-18 | Toshiba Corp | 自動改札装置および改札方法 |
US9256396B2 (en) * | 2011-10-10 | 2016-02-09 | Microsoft Technology Licensing, Llc | Speech recognition for context switching |
JP2015087649A (ja) * | 2013-10-31 | 2015-05-07 | シャープ株式会社 | 発話制御装置、方法、発話システム、プログラム、及び発話装置 |
KR102188090B1 (ko) * | 2013-12-11 | 2020-12-04 | 엘지전자 주식회사 | 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템 |
US9842592B2 (en) | 2014-02-12 | 2017-12-12 | Google Inc. | Language models using non-linguistic context |
US9412365B2 (en) | 2014-03-24 | 2016-08-09 | Google Inc. | Enhanced maximum entropy models |
CN104978015B (zh) * | 2014-04-14 | 2018-09-18 | 博世汽车部件(苏州)有限公司 | 具有语种自适用功能的导航系统及其控制方法 |
US9536521B2 (en) * | 2014-06-30 | 2017-01-03 | Xerox Corporation | Voice recognition |
US10134394B2 (en) | 2015-03-20 | 2018-11-20 | Google Llc | Speech recognition using log-linear model |
US9978367B2 (en) | 2016-03-16 | 2018-05-22 | Google Llc | Determining dialog states for language models |
US10832664B2 (en) | 2016-08-19 | 2020-11-10 | Google Llc | Automated speech recognition using language models that selectively use domain-specific model components |
CN107796415B (zh) * | 2016-09-07 | 2022-11-18 | 阿尔派株式会社 | 导航装置及其显示控制方法 |
US10229678B2 (en) * | 2016-10-14 | 2019-03-12 | Microsoft Technology Licensing, Llc | Device-described natural language control |
DE102017200976B4 (de) | 2017-01-23 | 2018-08-23 | Audi Ag | Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung |
US10311860B2 (en) | 2017-02-14 | 2019-06-04 | Google Llc | Language model biasing system |
JP6522679B2 (ja) * | 2017-03-13 | 2019-05-29 | シャープ株式会社 | 発話制御装置、方法、発話システム、及びプログラム |
WO2018167960A1 (ja) * | 2017-03-17 | 2018-09-20 | ヤマハ株式会社 | 音声処理装置、音声処理システム、音声処理方法、および音声処理プログラム |
JP2019066731A (ja) * | 2017-10-03 | 2019-04-25 | 東芝ライフスタイル株式会社 | 制御システム |
CN108882032A (zh) * | 2018-06-08 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
JP7199872B2 (ja) * | 2018-08-10 | 2023-01-06 | ナブテスコ株式会社 | 多言語音声案内装置および多言語音声案内方法 |
JP7117970B2 (ja) * | 2018-10-17 | 2022-08-15 | 株式会社日立ビルシステム | 案内ロボットシステム及び案内方法 |
JP7133149B2 (ja) * | 2018-11-27 | 2022-09-08 | トヨタ自動車株式会社 | 自動運転装置、カーナビゲーション装置及び運転支援システム |
JP7379872B2 (ja) * | 2019-06-04 | 2023-11-15 | コニカミノルタ株式会社 | 画像形成システム、画像形成装置、画像形成装置の制御プログラム、および画像形成装置の制御方法 |
JP7537259B2 (ja) | 2020-12-11 | 2024-08-21 | 株式会社デンソー | 注目対象共有装置、注目対象共有方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5720043A (en) | 1980-07-10 | 1982-02-02 | Matsushita Electric Ind Co Ltd | Looped optical fiber transmitter |
US4884972A (en) * | 1986-11-26 | 1989-12-05 | Bright Star Technology, Inc. | Speech synchronized animation |
JPH01138594A (ja) | 1987-11-25 | 1989-05-31 | Nec Corp | 多言語音声応答装置 |
JP2699626B2 (ja) | 1990-08-22 | 1998-01-19 | ソニー株式会社 | 音声対話型カーナビゲーションシステム |
US5890122A (en) * | 1993-02-08 | 1999-03-30 | Microsoft Corporation | Voice-controlled computer simulateously displaying application menu and list of available commands |
JPH0720894A (ja) | 1993-06-17 | 1995-01-24 | Sony Corp | 音声情報処理装置 |
AU682380B2 (en) | 1993-07-13 | 1997-10-02 | Theodore Austin Bordeaux | Multi-language speech recognition system |
JPH08193837A (ja) | 1995-01-20 | 1996-07-30 | Sony Corp | ナビゲーションシステム |
US5855000A (en) * | 1995-09-08 | 1998-12-29 | Carnegie Mellon University | Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input |
JPH10143191A (ja) | 1996-11-13 | 1998-05-29 | Hitachi Ltd | 音声認識システム |
JPH117296A (ja) | 1997-06-18 | 1999-01-12 | Oputoromu:Kk | 電子回路を有する記憶媒体と該記憶媒体を有する音声合成装置 |
JPH11112665A (ja) | 1997-09-30 | 1999-04-23 | Meidensha Corp | 携帯電話システム |
-
1999
- 1999-09-16 JP JP26230199A patent/JP4292646B2/ja not_active Expired - Lifetime
-
2000
- 2000-08-08 US US09/634,759 patent/US6243675B1/en not_active Expired - Lifetime
- 2000-09-12 DE DE10045020A patent/DE10045020A1/de not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
US6243675B1 (en) | 2001-06-05 |
DE10045020A1 (de) | 2001-05-03 |
JP2001083991A (ja) | 2001-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4292646B2 (ja) | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 | |
JP4353212B2 (ja) | 単語列認識装置 | |
US7826945B2 (en) | Automobile speech-recognition interface | |
US7822613B2 (en) | Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus | |
JP3964734B2 (ja) | ナビゲ−ション装置 | |
EP1699042B1 (en) | Device control device, method and program | |
JP2001034292A (ja) | 単語列認識装置 | |
JP5770770B2 (ja) | 入力装置 | |
JP4156563B2 (ja) | 単語列認識装置 | |
US20090234565A1 (en) | Navigation Device and Method for Receiving and Playing Sound Samples | |
WO2016174955A1 (ja) | 情報処理装置、及び、情報処理方法 | |
JP2000020888A (ja) | エージェント装置 | |
JP2003114794A (ja) | 操作案内装置及び操作案内方法 | |
US6879953B1 (en) | Speech recognition with request level determination | |
JP5181533B2 (ja) | 音声対話装置 | |
Minker et al. | The SENECA spoken language dialogue system | |
JP2003032388A (ja) | 通信端末装置及び処理システム | |
JP4262837B2 (ja) | 音声認識機能を用いたナビゲーション方法 | |
JP3726783B2 (ja) | 音声認識装置 | |
JP4942406B2 (ja) | ナビゲーション装置及びその音声出力方法 | |
JP3818352B2 (ja) | ナビゲーション装置及び記憶媒体 | |
JP2006010509A (ja) | ナビゲーションシステム | |
JP4268325B2 (ja) | 音声操作語句の提示装置及び提示方法 | |
JP3500948B2 (ja) | 音声認識装置 | |
JP2001272245A (ja) | ナビゲーション装置及び方法並びにナビゲーション用ソフトウェアを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080415 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090317 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090330 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4292646 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140417 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |