JP2012230670A - 戻ることによって誤認識を修正するシステム、方法及びコンピュータプログラム - Google Patents
戻ることによって誤認識を修正するシステム、方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2012230670A JP2012230670A JP2012089996A JP2012089996A JP2012230670A JP 2012230670 A JP2012230670 A JP 2012230670A JP 2012089996 A JP2012089996 A JP 2012089996A JP 2012089996 A JP2012089996 A JP 2012089996A JP 2012230670 A JP2012230670 A JP 2012230670A
- Authority
- JP
- Japan
- Prior art keywords
- user input
- destination address
- user
- input
- vehicle system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3611—Destination input or retrieval using character input or menus, e.g. menus of POIs
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/362—Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Navigation (AREA)
Abstract
【課題】車載システムが音声命令を誤認識するのを修正できないまま、ユーザが音声命令を繰り返し入力することを回避する。
【解決手段】ユーザが、ユーザ入力中のエラーを修正することを可能にするシステム、方法及びコンピュータプログラムが提供される。目的地アドレス又は目標候補地点を提供する最初のユーザ入力が、車載システムによって受け取られる。最初のユーザ入力中に誤解釈があること示すユーザ入力を受け取ると、最初のユーザ入力の部分、又は、最初のユーザ入力に関連付けられたカテゴリを入力することをユーザに要求する新たな質問が、ユーザに提示される。最初のユーザ入力の部分を提供する更新ユーザ入力が受け取られると、最初のユーザ入力エントリ及び更新ユーザ入力に基づいて、ユーザ入力が特定され実行される。
【選択図】図1
【解決手段】ユーザが、ユーザ入力中のエラーを修正することを可能にするシステム、方法及びコンピュータプログラムが提供される。目的地アドレス又は目標候補地点を提供する最初のユーザ入力が、車載システムによって受け取られる。最初のユーザ入力中に誤解釈があること示すユーザ入力を受け取ると、最初のユーザ入力の部分、又は、最初のユーザ入力に関連付けられたカテゴリを入力することをユーザに要求する新たな質問が、ユーザに提示される。最初のユーザ入力の部分を提供する更新ユーザ入力が受け取られると、最初のユーザ入力エントリ及び更新ユーザ入力に基づいて、ユーザ入力が特定され実行される。
【選択図】図1
Description
本開示は、車両通信システムの分野に関する。具体的には、車両通信システムに情報を提供するユーザインタフェースを提供することに関する。
ナビゲーション指示を提供する、歌を再生する、電話をかける等が可能である車載システムが車両に掲載されることが一般的になっている。車載システムは、インタフェースボタン、ジョイスティック、接触インタフェース表示モニタ、マイクロフォン及びスピーカを有し、ユーザが車載システムと交信することを可能にする。ユーザは、典型的には、マイクロフォンを使用して音声命令を入力する。この場合、車載システムは、ユーザの音声命令を解釈し、そのユーザの音声命令に応答する1又は複数の動作を実行する。しかしながら、車載システムがユーザの音声命令を誤認識することが多い。
車載システムが入力を認識しない場合、又は、車載システムがユーザの命令を誤認識していることをユーザが指摘する場合、車載システムは、典型的には、ユーザが音声命令を再入力することを可能にする。しかしながら、ユーザの入力の誤認識を修正するこのような方法は、効率が悪い。例えば、以前に誤認識された命令を修正するためにユーザは同じ音声命令を再入力し得る。すると、車載システムは、再入力された音声命令を同じように誤認識してしまう。車載システムが音声命令を誤認識するのを修正できないまま、ユーザは音声命令を繰り返し入力することを強いられる。このように正しい結果を生じないまま音声命令を入力する方法は、ユーザをいらつかせ、結局ユーザにあまり使用されなくなる。
さらに、米国車両製造ガイドライン(American Axle and Manufacturing Guideline, AAM GL)は、車載システムの表示スクリーンを見る時間は、2秒を超えてはならず、車載システム上であるタスクを完了するまでの間に、見る時間が合計20秒を超えてはならないと規定している。ユーザは、音声命令を再入力することによって、車載システムが音声命令を誤認識するのを修正しようとすると、一連のステップが実行されざるを得ない。例えば、誤認識されたアドレスを再入力しようとするユーザは、“戻る(back)”ボタン又は“ホーム(home)”ボタンを1回又は複数回押下して、州名入力インタフェースメニュー、都市名入力インタフェースメニュー、通り番号入力インタフェースメニュー又は通り名入力インタフェースメニューに辿り着き、それぞれのインタフェースメニューにおいて、位置情報を再入力しなければならない。このようにして誤りを修正する方法は、2秒を超える見る時間を要し、入力タスクを完了するために20秒を超える時間を要することが多い。
(要約)
本発明の実施形態は、車載システムに提供される目的地アドレス内のユーザ入力エラーを修正する方法(並びに、対応するシステム及びコンピュータプログラム)を提供する。方法は、第1のユーザ入力内の目的地アドレスを受け取り、受け取られた目的地アドレスを解釈する。解釈された目的地アドレスは、ユーザに提示される。提示された目的地アドレス内のエラーが車載システムによって受け取られたことを第2のユーザ入力が示す場合、ユーザは、目的地アドレスの第1の部分を再入力することを要求される。目的地アドレスは、目的地アドレスの第1の部分及び第2の部分を含む。目的地アドレスの第1の部分は、自身が誤りである可能性が最も高い場合に選択される。車載システムは、目的地アドレスの第1の部分を提供する第3のユーザ入力を受け取る。目的地アドレスは、目的地アドレスの第1の部分の第3のユーザ入力と、目的地アドレスの第2の部分の第1のユーザ入力と、に基づいて特定される。
本発明の実施形態は、車載システムに提供される目的地アドレス内のユーザ入力エラーを修正する方法(並びに、対応するシステム及びコンピュータプログラム)を提供する。方法は、第1のユーザ入力内の目的地アドレスを受け取り、受け取られた目的地アドレスを解釈する。解釈された目的地アドレスは、ユーザに提示される。提示された目的地アドレス内のエラーが車載システムによって受け取られたことを第2のユーザ入力が示す場合、ユーザは、目的地アドレスの第1の部分を再入力することを要求される。目的地アドレスは、目的地アドレスの第1の部分及び第2の部分を含む。目的地アドレスの第1の部分は、自身が誤りである可能性が最も高い場合に選択される。車載システムは、目的地アドレスの第1の部分を提供する第3のユーザ入力を受け取る。目的地アドレスは、目的地アドレスの第1の部分の第3のユーザ入力と、目的地アドレスの第2の部分の第1のユーザ入力と、に基づいて特定される。
本発明の他の実施形態は、車載システム内のユーザ入力エラーを修正する方法(並びに、対応するシステム及びコンピュータプログラム)を提供する。第1のユーザ入力は、車載システムによって受け取られ解釈される。解釈されたユーザ入力はユーザに提示され、提示されたユーザ入力内のエラーを示す第2のユーザ入力が受け取られる。第2のユーザ入力に応答して、ユーザは、第1のユーザ入力の部分を入力することをユーザに要求する新たな質問を提供される。第1のユーザ入力の要求された部分は、誤りである可能性が最も高いユーザ入力に関連付けられたカテゴリを含み得る。第1のユーザ入力の要求された部分を提供する第3のユーザ入力を受け取ると、車載システムは、第1のユーザ入力と、第3のユーザ入力と、に基づいてユーザ入力を特定する。
明細書で記述される特徴及び利点は、すべてを包括したものではない。具体的には、図面、明細書及び特許請求の範囲を参照する当業者には、多くの追加的特徴及び利点が明らかになるであろう。さらに、明細書で使用される言語は、主として意味の取りやすさ及び教示目的から選択されているのであって、本発明の主旨を限定するために選択されているのではない。
後記する明細書及び図面を併せて考慮することによって、本発明の実施形態の教唆は容易に理解され得る。
一実施形態が動作し得る環境を示す図である。
一実施形態に係る車載システムのブロック図である。
一実施形態に係るサーバのブロック図である。
車載システムの一実施形態に係る、ユーザ入力認識内の誤りを修正し、ナビゲーション指示を検索する方法のフローチャートである。
車載システムの一実施形態に係る、ユーザ入力認識内の誤りを修正し、ナビゲーション指示を検索するユーザインタフェースの遷移図である。
車載システムの一実施形態に係る、ユーザ入力及び関連情報に基づいて項目を検索して誤りを修正する方法のフローチャートである。
これらの図は、様々な実施形態を専ら例示目的で記述する。ここに例示される構造及び方法の代替的な実施形態が、ここに記述される原理を逸脱することなく使用され得ることを、当業者であれば後記する説明から容易に認識するであろう。
(詳細説明)
図を参照しつつ、本発明の実施形態を説明する。同じ参照番号は、同一の構成要素又は機能的に類似する構成要素を示す。図中の参照番号の最も左の数字は、当該参照番号が最初に使用される図面の番号に対応している。
図を参照しつつ、本発明の実施形態を説明する。同じ参照番号は、同一の構成要素又は機能的に類似する構成要素を示す。図中の参照番号の最も左の数字は、当該参照番号が最初に使用される図面の番号に対応している。
本明細書において、“一実施形態”又は“ある実施形態”と言う場合は、本発明の少なくとも1つの実施形態に、その実施形態に関連して記述される1つの特徴又は構造が含まれていることを意味する。本明細書のあちこちに“ある実施形態では”という語が出現しても、必ずしも同一の実施形態を指しているわけではない。
後記する詳細説明のいくつかの部分は、アルゴリズム用語や、コンピュータメモリ内のデータビット作業を示す象徴的な表現による。これらのアルゴリズム的な説明や表現は、情報処理分野の当業者が、自らの業績の要旨を、同分野の他の当業者に最も効率的に伝えるために用いる手段である。アルゴリズムとは、ここでは、そして一般的にも、ある所望の結果に至る複数のステップ(命令)の首尾一貫したシーケンスのことを言う。ステップとは、物理量に対する物理的操作を要求するステップのことである。通常、必ずしも必要条件ではないが、それらの数値は、記憶され、送信され、合成され、比較されかつ操作され得る、電子的、磁気的又は光学的信号の形を取る。これらの信号のことを、ビット、値、要素、シンボル、文字、語又は番号等と呼ぶことが主として用語の共通化の理由から便宜である。さらに、物理量に対する物理的操作を要求するステップの配列のうちいくつかのものは、一般性を失うことなく、モジュール又はコードデバイスと呼ぶことが便宜である。
しかしながら、このような用語の全ては適当な物理量と関連付けられており、これらの物理量に付された単なる便宜的なラベルに過ぎない。後記において特段の説明がない限り、明細書本文全体を通じて、“処理”、“計算”、“算出”、“決定”又は“表示”等の用語を用いた説明は、(電子的な)物理量としてのデータを、コンピュータシステムのメモリ、レジスタ又は他の情報ストレージのなかで操作しかつ変形するコンピュータシステムや同様の電子的コンピューティングデバイスの動作や処理のことを言う。
本発明のいくつかの側面は、アルゴリズムの形になったプロセスステップや命令を含む。本発明のプロセスステップや命令は、ソフトウエア、ファームウエア又はハードウエアによって実装され、ソフトウエアで実施される場合は、ダウンロードされることが可能であり、多様なオペレーティングシステムが用いる別のプラットフォームから操作されることも可能である。実施形態は、コンピュータシステム上で実行され得るコンピュータプログラムでもあり得る。
本実施形態は、操作を実行する装置にも関する。この装置は、所与の目的を達成する専用装置であってもよいし、コンピュータに記憶されたコンピュータプログラムによって動作する汎用コンピュータであってもよい。このようなコンピュータプログラムは、コンピュータが読取り可能な媒体に記憶され得る。その媒体とは、コンピュータシステムバスに接続可能な、フロッピーディスク(登録商標)、光ディスク、CD−ROM、電磁光学的ディスク、ROM、RAM、EPROM、EEPROM、電磁的又は光学的カード、ASIC又は電子的命令を記憶し得るあらゆる媒体を含むが、これらに限定されない。メモリは、情報/データ/プログラムを記憶し得る、任意の前記の及び/又は他の装置を含み得る。さらに、本明細書で言うコンピュータは、単体のプロセッサを含んでもよいし、コンピュータ性能を増加させるために複数のプロセッサを用いた装置であってもよい。
ここでいうアルゴリズムやディスプレイは、もともと特定のコンピュータや他の装置に関係している訳ではない。ここで教示される内容に従って、プログラムとともに多様な一般目的システムが使用され得る。又は、必要とされる方法ステップを実行するためにさらに特化した装置を作成することも便宜である。これらのシステムのそれぞれについてどのような構成が必要となるかは、後記する明細書本文から明らかになる。さらには、本発明は特定のプログラム言語を参照して記載されるものではない。本発明の教示を実施するために、多様なプログラム言語が使用され得る。後記において特定の言語に言及した場合、それは本発明の実施可能性及びベストモードを開示するためである。
さらに、本明細書で使用される言語は、主として意味の取りやすさ及び教示目的から選択されているのであって、本発明の主旨を限定するために選択されているのではない。従って、本発明の開示は、特許請求の範囲にて記述されている本発明の範囲を例示するものであるが限定するものではない。
(システム構成)
図1は、様々な実施形態に用いられる、例示的な動作環境100を示す。動作環境100は、車載システム102を有する車両100、ネットワーク108、車載システム102とネットワーク108との間の無線ネットワーク通信リンク125、及び、ネットワーク108に接続されるサーバ112を含む。無線ネットワーク通信リンク125は、直接的又は間接的にこれらの機器を接続し得る。
図1は、様々な実施形態に用いられる、例示的な動作環境100を示す。動作環境100は、車載システム102を有する車両100、ネットワーク108、車載システム102とネットワーク108との間の無線ネットワーク通信リンク125、及び、ネットワーク108に接続されるサーバ112を含む。無線ネットワーク通信リンク125は、直接的又は間接的にこれらの機器を接続し得る。
車載システム102は、車両のテレマティックスシステムの部分となり得るコンピュータ装置を有する。車載システム102の一実施形態は、図1を参照してより詳細に記述される。一般的には、車載システム102は、表示スクリーンによってユーザに情報を表示し、ユーザから入力を受け付け、様々な機能を制御する。車載システム102は、無線ネットワーク通信リンク125を含み、車載システム102がネットワーク108と接続し1又は複数のサーバ112と通信することを可能にする。このことによって、車載システム102は、例えば、サーバから目標候補地点情報又は履歴データを入手し、車載システム102上に目標候補地点情報を表示し、ユーザが車載システム102の様々な特徴を管理することを可能にする制御を提供する。
ネットワーク108は、例えば、携帯電話ネットワーク、1又は複数の他のネットワークのような、無線通信ネットワークを含んでもよい。他のネットワークの例としては、インターネット、公衆交換電話網(PSTN)、パケット交換網、フレームリレーネットワーク、光ファイバーネットワーク、WiFiネットワーク、WiMAXネットワーク、CDMAネットワーク、GSM(登録商標)ネットワーク、第3世代ネットワーク、第4世代ネットワーク、又は、他の無線ネットワークがある。
サーバ112は、ネットワーク108を介して通信して、様々な機能を搬送し、車載システム102又はネットワーク108上の他の装置がアクセス可能なデータを記憶する、コンピュータ装置を有する。ある実施形態においては、サーバ112は、特定のユーザ向けに、コンタクトエントリの集合を記憶し、ネットワーク108上の要求装置に対して、当該コンタクトエントリに関するコンタクトデータを提供する。コンタクトエントリのそれぞれは、例えば、名前、アドレス、電話番号、電子メールアドレス、ウエブサイト等のような、人物又は業務に関連付けられた様々なメタデータを提供する。サーバ112は、音声符号、すなわち、ユーザによって録音される音声メモを、記憶し処理することもできる。例えば、サーバ112は、車載システム102に接続された携帯装置から受け取られた音声符号を音声テキストに変換し、口述テキストを車載システム102に返送してもよい。ある実施形態においては、サーバ112は、録音された音声ファイルを記憶してもよい。及び/又は、サーバ112は、電子メール又はテキスト伝言装置を介してユーザに音声ファイルを配信してもよい。
説明を明確にするために、単一のサーバ112が例示されている。しかしながら、実際には、ネットワーク108上に、複数のサーバが存在してもよい。さらに、複数のサーバ112のうちの2つ以上が、単一のコンピュータ装置中に組み合わされていてもよい。
操作時においては、車載システム102及びサーバ112が無線通信ネットワーク108を介して相互に通信している。サーバ112は、車載システム102から受け取られた、ナビゲーションアドレス、目標候補地点、音楽又は歌選択等を含む入力履歴のような情報を記憶する。同様に、車載システム102は、遠隔サーバ112からの情報を記憶してもよい。ある実施形態においては、車載システム102は、短距離通信技術を使用するセル電話のような携帯コンピュータ装置に接続する。当該技術としては、ブルートゥース(登録商標)技術、又は、例えばユニバーサルシリアルバス(USB)のような他の短距離通信技術がある。車載システム102がネットワーク108に直接アクセスする設備を備えていない場合であっても、車載システム102は、携帯コンピュータ装置を接続して、間接的にネットワーク108と通信することができる。
図2は、車載システム102の一実施形態を例示するブロック図である。ある実施形態においては、車載システム102は、プロセッサ202、メモリ204、通信モジュール206、入力装置208、出力装置210、ナビゲーション装置212及びストレージ214を含んでもよい。クロック、入力キー等のような、車載システム102の他の従来の構成要素については、明細書の明確化のために記載を省略している。
プロセッサ202は、メモリ204、媒体カード、フラッシュ(登録商標)RAM又は他の有形媒体のような有形媒体に記憶された指示を解釈し実行する1又は複数の従来のプロセッサを含んでもよい。メモリ204は、プロセッサ202によって実行される情報及び指示を記憶するための、ランダムアクセスメモリ(RAM)若しくは他のタイプの動的記憶装置、及び/又は、読み出し専用メモリ(ROM)又は他のタイプの静的記憶装置を含んでもよい。RAM又は他のタイプの動的記憶装置は、指示を記憶してもよいし、プロセッサ202によって指示が実行される間に使用される一時的変数又は他の中間生成情報を記憶してもよい。ROM又は他のタイプの静的記憶装置は、前記のように、プロセッサ202向けの、静的情報及び指示を記憶してもよい。
通信モジュール206は、セル電話ネットワーク又は短距離通信技術を含む無線通信ネットワークを介して情報を送信し受信する送受信機を含み得る。当該技術としては、例えばブルートゥース(登録商標)技術、又は、例えばユニバーサルシリアルバス(USB)のような他の短距離通信技術がある。
入力装置208は、ハードキー及び/又はソフトキー、マイクロフォン、接触スクリーン、及び/又は、他の入力装置を含んでもよい。出力装置210は、スピーカ及び/又はディスプレイを含んでもよい。
ナビゲーションユニット212は、地図上における車両位置及び車両進行方向を決定するための通信システムを含んでもよいし、車両110を目的地に導くコンピュータ資源を含んでもよい。例えば、ナビゲーションユニット212は、全地球測位衛星と通信するための衛星通信モジュールを含んでもよい。
ストレージユニット214は、情報を記憶するための任意のタイプの記憶装置を含む。ある実施形態においては、ストレージユニット214は、目標候補地点のデータベースを記憶する。ストレージユニット214は、ユーザが過去に入力した目的地アドレスを記憶することもできる。他の実施形態においては、ストレージユニット214は、ネットワーク108を介してサーバ112が検索した目標候補地点又は目的地アドレスを記憶するために使用される。
図3は、サーバ112の例示的な実施形態の機能ブロック図である。サーバ112は、プロセッサ302、メモリ304、ストレージ装置306及びネットワーク通信モジュール308を含んでもよい。
プロセッサ302は、メモリ304、媒体カード、フラッシュ(登録商標)RAM又は他の有形媒体のような有形媒体に記憶される指示を解釈し実行する1又は複数の従来のプロセッサを含んでもよい。メモリ204を参照して前記したように、メモリ304は、ランダムアクセスメモリ(RAM)又は他のタイプの動的記憶装置、及び、読み出し専用メモリ(ROM)又は他のタイプの静的記憶装置を含んでもよい。RAM又は他のタイプの動的記憶装置は、指示を記憶してもよいし、プロセッサ302によって指示が実行される間に使用される一時的変数又は他の中間生成情報を記憶してもよい。ROM又は他のタイプの静的記憶装置は、プロセッサ302向けの、静的情報及び指示を記憶してもよい。
ネットワーク通信モジュール308は、ネットワーク108又は他のネットワークのような有線又は無線通信ネットワークを介して情報を送信し受信する送受信機を含んでもよい。
ここに記述される実施形態は、車載システム102が、ユーザ入力によって提供される命令を実行することを可能にする。さらに、ここに提示される実施形態は、ユーザが全文字列アドレス(FSA)エントリを使用して目的地アドレスを入力することを可能にする。FSAエントリでは、ユーザは、マイクロフォン又は車載システム102に接続された他の入力装置に対して、アドレス全体を話しかけることによってアドレスを入力し得る。このようにして、ユーザは、追加的に関連情報を入力することなく又は追加的にインタフェースを操作することなく、1つのユーザインタフェースメニューに目的地アドレスを入力し得る。しかしながら、車載システム102は、ユーザ入力を誤認識することがあり得る。車載システム102が、ユーザ入力のうち、誤認識される可能性が高い部分を決定するロジック(logic)を使用することを、ここに提供される実施形態は可能にする。車載システム102は、ユーザ入力のうち、誤認識された可能性が高い部分のみを再入力することを、ユーザに要求し得る。このようにして、ここに開示されるシステム及び方法は、車載システム102が、ユーザ入力の同じ部分を連続して誤認識することがない、前向きのユーザ体験を提供する。
(操作及び使用)
(目的地アドレスを特定する際の誤りの修正)
図4は、車載システムの一実施形態に係る、ユーザ入力の誤認識を修正し、ナビゲート方向を検索する方法のフローチャートである。車載システム102によって実行される様々なステップの処理が例示されている。代替的な実施形態においては、複数のステップは、複数の異なる主体によって実行されてもよい。又は、複数の同じ主体が、記述される複数のステップを集団的に実行してもよい。
(目的地アドレスを特定する際の誤りの修正)
図4は、車載システムの一実施形態に係る、ユーザ入力の誤認識を修正し、ナビゲート方向を検索する方法のフローチャートである。車載システム102によって実行される様々なステップの処理が例示されている。代替的な実施形態においては、複数のステップは、複数の異なる主体によって実行されてもよい。又は、複数の同じ主体が、記述される複数のステップを集団的に実行してもよい。
図5は、車載システムの一実施形態に係る、ユーザ入力の誤認識を修正し、ナビゲート方向を検索するユーザインタフェースの遷移図である。以降の説明においては、図4及び図5を同時並行的に説明する。
車両110のユーザにナビゲーション指示を提供するために、車載システム102は、目的地アドレスを要求する(ステップ402)。車載システム102は、ユーザが目的地アドレスを入力し得る1又は複数のユーザインタフェースメニューを表示し得る。例えば、車載システム102は、目的地の州、都市、通り番号及び通り名をそれぞれ要求する、連続する4つのユーザインタフェースメニューを提供するものでよい。ある実施形態においては、車載システム102は、全文字列アドレスエントリとして目的地アドレスを入力することをユーザに要求する1つのユーザインタフェースメニューを提供し得る。当該ユーザインタフェースメニューでは、ユーザは、通り番号、通り名、都市、州及び地域コードを、まとめて1つの入力エントリとして提供する。
ユーザは、車載システム102及び車両110によって提供される任意の入力装置208を使用して、目的地アドレスを入力し得る。ある実施形態においては、ユーザは、車載システム102に接続されているマイクロフォンにアドレス情報を話しかけることによって、目的地アドレスを入力し得る。同様に、ユーザは、接続されたキーボード又は接触スクリーン上に表示されるキーボードインタフェースを使用して、又は他のテキスト入力システムを使用して、目的地アドレスを入力し得る。他の実施形態においては、ユーザは、ブルートゥース(登録商標)技術のような短距離通信リンクを介して車載システム102に接続された携帯コンピュータ装置を使用して、目的地アドレスを車載システム102に送信し得る。
車載システム102は、ユーザによって提供された目的地アドレスを受け取り(ステップ404)、当該目的地アドレスを特定する(ステップ406)。ある実施形態においては、車載システム102は、目的地の州、都市及び通りのデータベースを記憶する。このようにして、車載システム102は、ステップ404において受け取られた目的地アドレスが、車載システム102のデータベースに記憶されている1又は複数のアドレスのいずれかと一致するか否かを調べることによって、目的地アドレスを特定し得る(ステップ406)。例えば、車載システム102は、ステップ404において受け取られた目的地アドレスの目的地の州を、目的地アドレス州のデータベースを使用して特定し得る(ステップ406)。同様に、車載システム102は、特定された州に関連付けられた目的地の都市のデータベースに、ユーザ入力と一致するものが有るか否かを調べることによって、ユーザによって提供された目的地の都市を特定し得る。通り名及び通り番号についても同様である。他の実施形態においては、ネットワーク108を介して車載システム102と接続されているサーバ112は、目的地の州、都市及び通りのデータベースを記憶する。この実施形態では、車載システム102は、ステップ404において受け取られた目的地アドレスをサーバ112に提供する。この場合、サーバ112は、サーバ112に記憶されたデータベース内の1又は複数のアドレスに、受け取られた目的地アドレスに一致するものが有るか否かを調べることによって、目的地アドレスを特定する(ステップ406)。サーバ112は、特定された目的地アドレスを、ネットワーク108を介して車載システム102に提供し得る。
車載システム102は、特定された目的地アドレスをユーザに提供する(ステップ408)。車載システム102は、画像ディスプレイモニタ、接触スクリーンディスプレイモニタ、スピーカ等の任意の出力装置210を使用して、特定された目的地アドレスをユーザに提供し得る(ステップ408)。一実施形態に係る、特定された目的地アドレスを表示する例示的なユーザインタフェース502が、図5に示されている。ユーザインタフェース502は、特定された目的地アドレス及び1又は複数の実行可能な命令を表示し得る。ユーザインタフェース502では、ユーザは、接触スクリーンディスプレイのような入力装置を使用して、命令を選択し実行し得る。例えば、ユーザインタフェース502は、1又は複数のインタフェース構成要素を提供し、ユーザが、表示されているアドレスを目的地アドレスとして設定し、表示されているアドレスを変更し、又は、目的地の地図を見ること等を可能にする。
ある実施形態においては、ステップ408においてユーザに提供された目的地アドレスが、ステップ410において正しいと判断された場合、ユーザは、目的地アドレスへのナビゲーション指示を検索する命令を実行し得る。正しいと判断された場合は、車載システム102は、ステップ408において提供された目的地アドレスへのナビゲーション指示を検索する(ステップ420)。車載システム102は、車載システム102のメモリ204に記憶されているナビゲーションデータに基づいて、目的地アドレスへのナビゲーション経路を算出する。他の実施形態においては、車載システム102は、ネットワーク108を介してサーバ112からナビゲーション指示を検索し得る(ステップ420)。
他の実施形態においては、ステップ408においてユーザに提供された目的地アドレスが、ステップ410において正しくないと判断された場合、ユーザは、命令を実行して、提供された目的地アドレスを修正し得る。車載システム102によって提供される任意の実行可能な命令は、ユーザによって提供された目的地アドレスを認識する際のエラーを修正するために使用され得る。例えば、車載システム102は、ユーザが“戻る(back)”ボタンを押下し、又は、“戻る(back)”若しくは“アドレスを修正する(fix address)”と言い、表示されている目的地アドレスを修正し得るようにすることができる。ユーザによって提供された目的地アドレスを認識する際のエラーをユーザが修正し得るユーザインタフェース命令は、明細書、図4及び図5においては、図示しやすさ及び単純化のため、“戻るボタン(back button)”として例示されている。
車載システム102は、ユーザに提供された目的地アドレスを更新したい又は修正したいとユーザが考えていることを示す入力を、ユーザから受け取り得る。ここで記述されるように、ユーザ入力は、車載システム102に接続されている入力装置208上で、“戻る(back)”ボタンを押下することを含む。車載システム102は、ユーザ入力に応答して、目的地アドレスの通り名及び通り番号を入力することをユーザに要求する(ステップ412)。このとき、ユーザは、目的地アドレス全体を再入力することを要求されるわけではない。このように、車載システム102は、目的地アドレスの一部分のみを提供することをユーザに要求するので、要求された目的地アドレスをより正確に決定し得る。
ある実施形態においては、車載システム102は、ユーザ入力に応答して、目的地アドレスの通り名及び通り番号をユーザから要求する(ステップ412)。明細書に記載されているように、車載システム102は、車載システム102に接続された任意の入力装置を使用して通り名及び通り番号を入力することをユーザに要求し得る(ステップ412)。例えば、車載システム102は、1又は複数のスピーカ、ディスプレイモニタ、接触スクリーンディスプレイ等を使用することによって、ユーザ入力を要求し得る。ある実施形態においては、車載システム102は、ユーザインタフェース504を表示することによって、通り名及び通り番号を再入力することをユーザに要求し得る。ユーザインタフェース504は、“トランス,カリフォルニア(Torrance, CA)”のような目的地の都市及び州を含み、“通り番号及び通り名を言う”ことをユーザに要求する。通り名及び通り番号を再入力することをユーザに要求するユーザインタフェース504は、ユーザに入力方法を変更させる、ユーザが実行可能な他の命令、又は、ユーザに目的地アドレスの都市を変更させるインタフェース構成要素を含み得る。
ある実施形態においては、車載システム102は、目的地アドレスの他の部分を入力することをユーザに要求し得る。このような実施形態では、車載システム102は、目的地アドレスのうち、車載システム102が誤認識した可能性が最も高い部分を再入力することをユーザに要求し得る。例えば、車載システム102が目的地アドレスの都市を誤認識する可能性が最も高かった場合、車載システム102は、目的地アドレスの都市を再入力することをユーザに要求し得る。車載システム102は、当業界において知られているいくつかの方法を使用して、入力された目的地アドレスのうち、誤認識されている可能性が最も高い部分を決定し得る。例えば、車載システム102は、目的地アドレスの部分のそれぞれに関連付けられたデータベースエントリの数を決定し得る。このとき、データベースエントリの数が最も多い目的地アドレスの部分が、誤認識されている可能性が最も高い部分として特定される。一般的に、アドレスのデータベースは、都市名及び州名よりも多くの通り名を格納している。したがって、車載システム102は、通り名及び通り番号を、車載システム102によって誤認識されている可能性が最も高い部分として認識し、通り名及び通り番号を再入力することをユーザに要求する。他の例においては、ユーザは、ユーザプロフィール内に選好情報を設定し、目的地アドレスが車載システム102によって誤認識されているときは常に、まず都市名を再入力する。この例では、車載システム102は、まず都市名を再入力することをユーザに要求する。他の実施形態においては、目的地アドレスが正しくない場合、目的地アドレスの部分のそれぞれは、ユーザに表示され得る。そして、ユーザは、再入力され得る正しくない部分を特定し得る。さらに他の実施形態においては、車載システム102は、スコアリングアルゴリズムを使用して、目的地アドレスのうち、誤認識されている可能性が最も高い部分を決定し得る。例えば、ユーザがある入力命令を提供するとき、車載システム102は、当該入力命令を受け取り、当該入力命令に信頼度を割り当てる。ある実施形態においては、信頼度は、車載システム102がユーザ入力命令を誤認識する可能性の尺度である。予め決定される閾値を超える又はそれに達しない信頼度が、車載システム102によって誤認識されている可能性が高いとして特定されてもよい。したがって、例えば、入力アドレスの通り名の部分が、閾値を超える信頼度を受け取った場合、目的地アドレスの通り名が誤認識された可能性が最も高い部分として特定される。
ユーザは、車載システム102に接続されている入力装置208を使用して、目的地アドレスの通り名及び通り番号を再入力し得る。明細書に記述されているように、ユーザは、マイクロフォン、キーボード、接触感知表示スクリーン等のような入力装置208を使用して通り名及び通り番号を再入力し得る。車載システム102は、ユーザ入力を受け取り(ステップ414)、再入力された通り名及び通り番号と、目的地アドレスのうち以前に提供されている州及び都市と、に基づいて目的地アドレスを特定する(ステップ406)。ここで記述されるように、車載システム102は、車載システム102上のデータベースに記憶されている、又は、ネットワーク108に接続されているサーバ112上のデータベースに記憶されている目的地アドレスに、ユーザ入力と一致するものが有るか否かを調べることによって、目的地アドレスを特定する。明細書に記述されているように、車載システム102は、車載システム102に接続されている1又は複数の出力装置210を使用して、ユーザに目的地アドレスを提供する(ステップ408)。ステップ410において、特定された目的地アドレスが正しいと判断された場合、車載システム102は、ナビゲーションシステムを検索し、目的地アドレスへのナビゲーション指示を決定する。
ユーザは、戻るボタン(back button)又は車載システム102によって提供される任意の他の入力ボタンを押下することを選択し、ステップ408において車載システム102によって提供された目的地アドレスの、正しい都市名を再入力し得る。ユーザがこのような入力を提供することに応答して、車載システム102は、目的地アドレスの都市名を再入力することをユーザに要求する(ステップ416)。ある実施形態においては、車載システム102は、“カリフォルニア”のような目的地の州を含むユーザインタフェース506を表示し、“都市名を言う”ことをユーザに要求することによって、都市名を再入力することをユーザに要求し得る。州名を再入力することをユーザに要求するユーザインタフェース506は、ユーザが入力方法を変更すること可能にするユーザが実行可能な他の命令、又は、ユーザが目的地アドレスの都市を変更することを可能にするインタフェース構成要素を含み得る。
ユーザは、車載システム102に接続されている任意の入力装置208を使用して、都市名を再入力し得る。車載システム102は、ユーザ入力を受け取る(ステップ418)。ステップ418において、更新された都市名を受け取ると、車載システム102は、目的地アドレスを確認する(ステップ419)。ある実施形態においては、車載システム102は、ユーザによって提供された都市名がユーザによって提供された州内に存在するか否かを特定することによって目的地アドレスを確認する(ステップ419)。さらに、車載システム102は、通り名及び通り番号を再入力することをユーザに要求する(ステップ412)。明細書に記述されているように、車載システム102は、音声認識システム、接触入力装置、キーボード等を含むがそれらに限定されないユーザが利用可能な任意の数の入力装置を使用して、通り名及び通り番号を再入力することをユーザに要求し得る(ステップ412)。ある実施形態においては、車載システム102は、ユーザ入力を受け取り(ステップ414)、再入力された都市名、通り名及び通り番号に基づいて目的地アドレスを特定する(ステップ406)。明細書に記述されているように、ステップ408において、特定された目的地アドレスがユーザに提供される都度、処理が繰り返される。ステップ408において、目的地アドレスは、接触インタフェースディスプレイ、車載スピーカ、車載システム102に接続された携帯装置を含むがそれらに限定されない多くの出力装置を介してユーザに提供され得る。
ある実施形態においては、車載システム012が目的地アドレスの州名を正しく特定しなかった場合、ユーザは、更新された都市名を提供する代わりに、州名を再入力することを選択してもよい。ユーザは、戻る(back)ボタン又は車載システム102によって提供される他の入力ボタンを押下して州名を再入力又は修正してもよい。このような入力を受け取ると、車載システム102は、目的地アドレスを再入力することをユーザに要求する(ステップ402)。明細書に記述されているように、車載システム012は、目的地アドレスを全文字列アドレスエントリとして入力することをユーザに要求する。このようにすると、ユーザは、追加的なメニュー又はユーザインタフェース構成要素を経由することなく目的地アドレス全体を入力することができる。
(ユーザ入力を特定する際の誤りの修正)
図6は、車載システムの一実施形態に係る、ユーザ入力の誤認識を修正する方法のフローチャートである。ユーザは、車載システム102に任意の数の命令を入力し、情報又は実行命令を検索し得る。ユーザが車載システム102に提供し得る入力命令の例は、ナビゲーション指示の検索、レストラン、映画館、公園等のような目標候補地点の検索、特定のアーティストによる又は特定のアルバムに含まれる音楽の再生、又は、電子メール、標準伝言サービス(SMS)メッセージ又は電話のような通信を確立する連絡先の特定を含むがこれらに限定されない。
図6は、車載システムの一実施形態に係る、ユーザ入力の誤認識を修正する方法のフローチャートである。ユーザは、車載システム102に任意の数の命令を入力し、情報又は実行命令を検索し得る。ユーザが車載システム102に提供し得る入力命令の例は、ナビゲーション指示の検索、レストラン、映画館、公園等のような目標候補地点の検索、特定のアーティストによる又は特定のアルバムに含まれる音楽の再生、又は、電子メール、標準伝言サービス(SMS)メッセージ又は電話のような通信を確立する連絡先の特定を含むがこれらに限定されない。
ユーザは、“マクドナルドを探す”のような入力命令を提供して、ユーザに最も近いマクドナルドレストランを探すことを車載システム102に要求し得る。他の例では、ユーザは、目標候補地点に関連付けられた関連情報を提供して、車載システム102が、要求された目標候補地点を探すのを支援してもよい。特定のユーザインタフェースにおける入力命令は、車載システム102によって提供される。例えば、“目標候補地点”ユーザインタフェースにおいては、ユーザは、“レストラン”を入力するものとしてもよい。“レストラン”インタフェースにおいては、ユーザは、“マクドナルド”を入力し、マクドナルドレストランを探すことを車載システム102に要求するものとしてもよい。
ユーザが興味を持つ目標候補地点を特定するために、車載システム102は、関連情報を要求し得る。例えば、ユーザは、追加的な関連情報を提供して、自身が興味を持つ可能性が高い目標候補地点を特定することが多い。例えば、レストランを特定する際、“レストランは車両の現在位置から3マイル以内になければならない”かつ“レストランの種類はイタリアンでなければならない”という条件をユーザは提供してもよい。このようにして、車載システム102は、ユーザが提供する関連情報に一致するレストランを特定し表示し得る。
ある実施形態においては、処理手順600は、ユーザプロフィール情報を検索することによって、又は、追加的な関連情報を要求することによって、ユーザ入力の誤認識を特定する。車載システム102は、ユーザ入力を受け取り、目標候補地点を検索し得る(ステップ602)。明細書に記述されているように、ユーザ入力は、マイクロフォン、キーボード、接触感知ディスプレイ等のような、車載システム102の入力装置208によって受け取られ得る。車載システム102は、関連データを受け取って、特定の目標候補地点を検索し得る。例えば、車載システム102は、“レストラン”を含むユーザ入力を目標候補地点として受け取り得るし、“ファーストフード”をレストランのタイプとして受け取り得る(ステップ602)。
車載システム102は、目標候補地点及び任意の関連データを含むユーザ入力を解釈する(ステップ604)。明細書に記述されているように、ユーザ入力を認識する任意のシステムが、ユーザ入力を解釈する(ステップ604)ために使用され得る。例えば、音声認識システムは、ユーザの音声入力を認識するために使用され得る。ある実施形態においては、車載システム102は、特定されたユーザ入力を表示する(ステップ606)。例えば、車載システム102がユーザ入力を“イタリアンレストラン、オリーブガーデン”として認識した場合、車載システム102は、“オリーブガーデン、イタリアンレストラン”を表示し得る(ステップ606)。
ある実施形態においては、ステップ608において、特定結果は正しいことをユーザが示す場合、車載システム102は、特定された入力を検索する(ステップ616)。前記の例で説明を続けると、表示されている入力情報“オリーブガーデン、イタリアンレストラン”が正しいものであることをユーザが示す場合、車載システム102は、目標候補地点についての情報をデータベースから検索することによって、つまり、目標候補地点へのナビゲーション指示を検索することによって、特定された入力を検索する(ステップ616)。他の例では、ユーザがある歌の再生を要求する場合、車載システム102は、特定した歌を、ローカルデータベースから、又は、車載システム102に遠隔接続されたサーバから検索し得る(ステップ616)。
他の実施形態においては、ステップ608において、表示されている特定結果は正しくないことをユーザが示す場合、車載システム102は、フィードバックして、ユーザに対する新たな質問を提供する(ステップ610)。ある実施形態においては、ユーザは、戻る(back)ボタンを押下することによって、特定結果が正しくないことを示し得る。他の実施形態においては、他の入力ボタン又は他の入力方法が使用され得る。ある実施形態においては、表示されている特定結果が正しくないことをユーザが示すと、車載システム102は、ユーザ入力に関連付けられた関連情報を特定し(ステップ614)、最も多いデータベースエントリが存在するデータベースを特定する。例えば、ある特定のユーザ入力について存在するデータベースエントリの数が多いほど、車載システム102は、ユーザ入力を正しく解釈し一致を調べる際に誤りを犯す可能性が高くなる。このように前記の例においては、車載システム102は、フィードバックし、レストランのタイプを再入力することをユーザに要求する。他の例では、車載システム102は、レストラン又は目標候補地点までの最大距離、再生する歌の歌手名、アルバム名、遊園地のような公園のタイプ、又は、目標候補心地点に関連付けられた任意の他のカテゴリのような、他のタイプの情報を要求し得る。車載システム102は、ステップ610において提供された新たな質問に応答するユーザ入力を受け取り得る(ステップ612)。明細書に記載されているように、車載システム102は、特定の関連情報又はデータベースに関連付けられたユーザ入力を解釈し得る。例えば、車載システム102が、ファーストフードレストランのタイプについてのユーザ入力を受け取った場合、車載システム102は、“ファーストフードレストラン”のタイプについてのユーザ入力が、レストランのタイプのデータベース内のエントリのいずれかに一致するか否かを調べる。
ある実施形態においては、車載システム102は、再入力された関連情報に基づいてユーザ入力を特定する(ステップ614)。前記の例では、車載システム102は、“ファーストフードレストラン”として列挙されたレストランを特定し得る。車載システム102は、“ファーストフードレストラン”に一致し、かつ、ステップ602において、最初にユーザから受け取られたレストラン名にも一致するレストランの部分集合内で、他の検索を実行し得る。このようにして、車載システム102は、ユーザ入力を解釈する際の誤りを修正し得る。ユーザがユーザ入力全体を再入力しなければならない従来のシステムとは異なり、本発明は、ロジックを使用して、ユーザ入力のうち、誤って解釈されている可能性が最も高い部分を決定し、その入力の一部分のみを再入力することをユーザに要求する。
車載システム102は、ステップ614において更新された関連情報とともにユーザ入力をユーザに表示し得る(ステップ606)。明細書において記述されているように、車載システム102は、ディスプレイモニタ、スピーカ等のような出力装置210を使用して、特定された入力を提供し得る(ステップ606)。あるユーザ入力について、正しい特定結果が受け取られるまで、車載システム102は、明細書に記述された処理を続け得る。
102 車載システム
108 ネットワーク
110 車両
112 サーバ
125 無線ネットワーク通信リンク
202 プロセッサ
204 メモリ
206 通信モジュール
208 入力装置
210 出力装置
212 ナビゲーション
214 ストレージ
302 プロセッサ
304 メモリ
306 ストレージ装置
308 通信モジュール
108 ネットワーク
110 車両
112 サーバ
125 無線ネットワーク通信リンク
202 プロセッサ
204 メモリ
206 通信モジュール
208 入力装置
210 出力装置
212 ナビゲーション
214 ストレージ
302 プロセッサ
304 メモリ
306 ストレージ装置
308 通信モジュール
Claims (20)
- 車載システムに提供する目的地アドレス中のユーザ入力エラーを修正するプロセッサを用いた方法であって、
前記プロセッサは、
第1のユーザ入力中に受け取られた前記目的地アドレスを解釈し、
前記目的地アドレスを提示し、
前記提示された目的地アドレス中にエラーがあることを示す第2のユーザ入力を受け取り、
第1の部分及び第2の部分を含む前記目的地アドレスのうち、誤りである可能性が最も高い前記第1の部分を特定し、
前記目的地アドレスの前記第1の部分を再入力することをユーザに要求し、
前記目的地アドレスの前記第1の部分を提供する第3のユーザ入力を受け取り、
前記目的地アドレスの前記第1の部分の前記第3のユーザ入力と、前記目的地アドレスの前記第2の部分の前記第1のユーザ入力と、に基づいて目的地アドレスを特定するステップを実行すること、
を特徴とする方法。 - 前記プロセッサは、
前記提示された目的地アドレス中にエラーがあることを示す第4のユーザ入力を受け取ると、前記目的地アドレスの前記第2の部分を再入力することを前記ユーザに要求し、
前記目的地アドレスの前記第2の部分を提供する第5のユーザ入力を受け取り、
前記目的地アドレスの前記第1の部分の前記第1のユーザ入力と、前記目的地アドレスの前記第2の部分の前記第5のユーザ入力と、に基づいて目的地アドレスを特定するステップを実行すること、
を特徴とする請求項1に記載の方法。 - 前記プロセッサは、
前記提示された目的地アドレス中にエラーがあることを示す第4のユーザ入力を受け取ると、前記目的地アドレスの前記第2の部分を再入力することを前記ユーザに要求し、
前記目的地アドレスの前記第2の部分を提供する第5のユーザ入力を受け取り、
前記第5のユーザ入力を前記ユーザが提供すると、前記目的地アドレスの前記第1の部分を再入力することを前記ユーザに要求し、
前記目的地アドレスの前記第1の部分を提供する第6のユーザ入力を受け取り、
前記目的地アドレスの前記第2の部分の前記第5のユーザ入力と、前記目的地アドレスの前記第1の部分の前記第6のユーザ入力と、に基づいて目的地アドレスを特定するステップを実行すること、
を特徴とする請求項1に記載の方法。 - 前記目的地アドレスの前記第1の部分は、
前記目的地アドレスの通り番号及び通り名を有すること、
を特徴とする請求項1に記載の方法。 - 前記目的地アドレスの前記第2の部分は、
前記目的地アドレスの都市名を有すること、
を特徴とする請求項1に記載の方法。 - 前記ユーザ入力は、
音声命令、キーパッド入力及び接触スクリーン入力として受け取られること、
を特徴とする請求項1に記載の方法。 - 前記解釈された目的地アドレス中にエラーがあることを示す前記ユーザ入力は、
戻りボタン及び音声戻り命令を起動することによって提供されること、
を特徴とする請求項1に記載の方法。 - 車載システムに提供する目的地アドレス中のユーザ入力エラーを修正するシステムであって、
前記システムは、
実行可能なコンピュータプログラムコードを実行するプロセッサと、
前記実行可能なコンピュータプログラムコードを記憶するコンピュータ読取可能な記憶媒体と、
を有し、
前記プロセッサは、前記実行可能なコンピュータプログラムコードを読み取ると、
第1のユーザ入力中に受け取られた前記目的地アドレスを解釈し、
前記目的地アドレスを提示し、
前記提示された目的地アドレス中にエラーがあることを示す第2のユーザ入力を受け取り、
第1の部分及び第2の部分を含む前記目的地アドレスのうち、誤りである可能性が最も高い前記第1の部分を特定し、
前記目的地アドレスの前記第1の部分を再入力することをユーザに要求し、
前記目的地アドレスの前記第1の部分を提供する第3のユーザ入力を受け取り、
前記目的地アドレスの前記第1の部分の前記第3のユーザ入力と、前記目的地アドレスの前記第2の部分の前記第1のユーザ入力と、に基づいて目的地アドレスを特定するステップを実行すること、
を特徴とするシステム。 - 前記プロセッサは、
前記提示された目的地アドレス中にエラーがあることを示す第4のユーザ入力を受け取ると、前記目的地アドレスの前記第2の部分を再入力することを前記ユーザに要求し、
前記目的地アドレスの前記第2の部分を提供する第5のユーザ入力を受け取り、
前記目的地アドレスの前記第1の部分の前記第1のユーザ入力と、前記目的地アドレスの前記第2の部分の前記第5のユーザ入力と、に基づいて目的地アドレスを特定するステップを実行すること、
を特徴とする請求項8に記載のシステム。 - 前記プロセッサは、
前記提示された目的地アドレス中にエラーがあることを示す第4のユーザ入力を受け取ると、前記目的地アドレスの前記第2の部分を再入力することを前記ユーザに要求し、
前記目的地アドレスの前記第2の部分を提供する第5のユーザ入力を受け取り、
前記第5のユーザ入力を前記ユーザが提供すると、前記目的地アドレスの前記第1の部分を再入力することを前記ユーザに要求し、
前記目的地アドレスの前記第1の部分を提供する第6のユーザ入力を受け取り、
前記目的地アドレスの前記第2の部分の前記第5のユーザ入力と、前記目的地アドレスの前記第1の部分の前記第6のユーザ入力と、に基づいて目的地アドレスを特定するステップを実行すること、
を特徴とする請求項8に記載のシステム。 - 車載システムに提供する目的地アドレス中のユーザ入力エラーを修正するプロセッサを機能させるコンピュータプログラムであって、
前記コンピュータプログラムは、前記プロセッサに対して、
第1のユーザ入力中に受け取られた前記目的地アドレスを解釈し、
前記目的地アドレスを提示し、
前記提示された目的地アドレス中にエラーがあることを示す第2のユーザ入力を受け取り、
第1の部分及び第2の部分を含む前記目的地アドレスのうち、誤りである可能性が最も高い前記第1の部分を特定し、
前記目的地アドレスの前記第1の部分を再入力することをユーザに要求し、
前記目的地アドレスの前記第1の部分を提供する第3のユーザ入力を受け取り、
前記目的地アドレスの前記第1の部分の前記第3のユーザ入力と、前記目的地アドレスの前記第2の部分の前記第1のユーザ入力と、に基づいて目的地アドレスを特定するステップを実行させること、
を特徴とするコンピュータプログラム。 - 車載システム中のユーザ入力エラーを修正するプロセッサを用いた方法であって
前記プロセッサは、
前記車載システムによって受け取られた第1のユーザ入力を解釈し、
前記解釈された入力をユーザに提示し、
前記第1のユーザ入力中にエラーがあることを示す第2のユーザ入力を受け取り、
前記受け取られた入力のうち、誤りである可能性が最も高い部分であって、前記ユーザ入力に関連付けられた入力カテゴリを含む部分を特定し、
前記車載システムによって受け取られた前記第1のユーザ入力の部分を入力することを前記ユーザに要求する新たな質問を提供し、
前記新たな質問に応答する第3のユーザ入力を受け取り、
前記第1のユーザ入力と、前記第3のユーザ入力と、に基づき前記ユーザ入力を特定するステップを実行すること、
を特徴とする方法。 - 前記プロセッサは、
前記ユーザに前記特定されたユーザ入力を提示し、
前記特定されたユーザ入力中にエラーがあることを示す追加ユーザ入力が前記車載システムによって受け取られない場合、前記特定されたユーザ入力を検索するステップを実行すること、
を特徴とする請求項12に記載の方法。 - 前記プロセッサは、
前記特定されたユーザ入力中にエラーがあることを示す第4のユーザ入力を受け取り、
前記車載システムによって受け取られた前記第1のユーザ入力の他の部分を入力することを前記ユーザに要求する新たな質問を提供するステップを実行すること、
を特徴とする請求項12に記載の方法。 - 前記ユーザ入力は、
音声命令として受け取られ、音声認識システムを使用して解釈されること、
を特徴とする請求項12に記載の方法。 - 前記入力カテゴリは、
自身の入力カテゴリが最大のエントリ数を有する場合に選択されること、
を特徴とする請求項12に記載の方法。 - 前記入力カテゴリは、
ユーザプロフィール内に提供される選好情報に基づき選択されること、
を特徴とする請求項12に記載の方法。 - 前記入力カテゴリは、
レストランタイプ、公園タイプ、アルバム名及びアーチスト名を含むこと、
を特徴とする請求項12に記載の方法。 - 人間ユーザに案内動作及びフィードバックを提供するシステムであって、
前記システムは、
実行可能なコンピュータプログラムコードを実行するプロセッサと、
前記実行可能なコンピュータプログラムコードを記憶するコンピュータ読取可能な記憶媒体と、
を有し、
前記プロセッサは、前記実行可能なコンピュータプログラムコードを読み取ると、
車載システムによって受け取られた第1のユーザ入力を解釈し、
前記解釈された入力をユーザに提示し、
前記第1のユーザ入力中にエラーがあることを示す第2のユーザ入力を受け取り、
前記受け取られた入力のうち、誤りである可能性が最も高い部分であって、前記ユーザ入力に関連付けられた入力カテゴリを含む部分を特定し、
前記車載システムによって受け取られた前記第1のユーザ入力の部分を入力することを前記ユーザに要求する新たな質問を提供し、
前記新たな質問に応答する第3のユーザ入力を受け取り、
前記第1のユーザ入力と、前記第3のユーザ入力と、に基づき前記ユーザ入力を特定するステップを実行すること、
を特徴とするシステム。 - 人間ユーザに案内動作及びフィードバックを提供するプロセッサを機能させるコンピュータプログラムであって、
前記コンピュータプログラムは、前記プロセッサに対して、
車載システムによって受け取られた第1のユーザ入力を解釈し、
前記解釈された入力をユーザに提示し、
前記第1のユーザ入力中にエラーがあることを示す第2のユーザ入力を受け取り、
前記受け取られた入力のうち、誤りである可能性が最も高い部分であって、前記ユーザ入力に関連付けられた入力カテゴリを含む部分を特定し、
前記車載システムによって受け取られた前記第1のユーザ入力の部分を入力することを前記ユーザに要求する新たな質問を提供し、
前記新たな質問に応答する第3のユーザ入力を受け取り、
前記第1のユーザ入力と、前記第3のユーザ入力と、に基づき前記ユーザ入力を特定するステップを実行させること、
を特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/093,797 | 2011-04-25 | ||
US13/093,797 US9188456B2 (en) | 2011-04-25 | 2011-04-25 | System and method of fixing mistakes by going back in an electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012230670A true JP2012230670A (ja) | 2012-11-22 |
Family
ID=46085382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012089996A Pending JP2012230670A (ja) | 2011-04-25 | 2012-04-11 | 戻ることによって誤認識を修正するシステム、方法及びコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9188456B2 (ja) |
EP (1) | EP2518447A1 (ja) |
JP (1) | JP2012230670A (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
KR20240132105A (ko) | 2013-02-07 | 2024-09-02 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US10409382B2 (en) | 2014-04-03 | 2019-09-10 | Honda Motor Co., Ltd. | Smart tutorial for gesture control system |
US9342797B2 (en) | 2014-04-03 | 2016-05-17 | Honda Motor Co., Ltd. | Systems and methods for the detection of implicit gestures |
WO2015153835A1 (en) * | 2014-04-03 | 2015-10-08 | Honda Motor Co., Ltd | Systems and methods for the detection of implicit gestures |
US10466657B2 (en) | 2014-04-03 | 2019-11-05 | Honda Motor Co., Ltd. | Systems and methods for global adaptation of an implicit gesture control system |
US10147414B1 (en) | 2014-05-15 | 2018-12-04 | Namecoach, Inc | Link-based audio-recording, collection, collaboration, embedding and delivery system |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
KR102068182B1 (ko) * | 2017-04-21 | 2020-01-20 | 엘지전자 주식회사 | 음성 인식 장치, 및 음성 인식 시스템 |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
CN109903771B (zh) * | 2019-01-30 | 2021-06-18 | 科讯嘉联信息技术有限公司 | 一种快递场景智能录入地址方法及系统 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
CN110119237A (zh) * | 2019-04-02 | 2019-08-13 | 努比亚技术有限公司 | 一种识屏控制方法、终端及计算机可读存储介质 |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11204675B2 (en) * | 2019-09-06 | 2021-12-21 | Aptiv Technologies Limited | Adaptive input countermeasures on human machine interface |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US12045437B2 (en) * | 2020-05-22 | 2024-07-23 | Apple Inc. | Digital assistant user interfaces and response modes |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US20230196270A1 (en) * | 2021-12-21 | 2023-06-22 | Shopify Inc. | Methods and systems for improved address entry interface |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293195A (ja) * | 1999-04-09 | 2000-10-20 | Hitachi Ltd | 音声入力装置 |
JP2001075593A (ja) * | 1999-06-29 | 2001-03-23 | Omron Corp | 音声認識装置および方法、並びに記録媒体 |
JP2002318136A (ja) * | 2001-02-15 | 2002-10-31 | Navigation Technol Corp | 自動音声認識プログラムのための空間構築単語リスト及びその形成方法 |
JP2003114696A (ja) * | 2001-10-03 | 2003-04-18 | Denso Corp | 音声認識装置、プログラム及びナビゲーションシステム |
JP2004240244A (ja) * | 2003-02-07 | 2004-08-26 | Nissan Motor Co Ltd | 音声認識装置 |
JP2008097082A (ja) * | 2006-10-06 | 2008-04-24 | Mitsubishi Electric Corp | 音声対話装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5511135A (en) | 1993-11-29 | 1996-04-23 | International Business Machines Corporation | Stylus-input recognition correction manager |
US6064959A (en) | 1997-03-28 | 2000-05-16 | Dragon Systems, Inc. | Error correction in speech recognition |
EP0944892B1 (de) * | 1996-12-16 | 2001-08-16 | MANNESMANN Aktiengesellschaft | Verfahren zur identifikation eines ortes, endgerät und zentrale |
JP3980791B2 (ja) | 1999-05-03 | 2007-09-26 | パイオニア株式会社 | 音声認識装置を備えたマンマシンシステム |
US6317684B1 (en) * | 1999-12-22 | 2001-11-13 | At&T Wireless Services Inc. | Method and apparatus for navigation using a portable communication device |
WO2001084535A2 (en) | 2000-05-02 | 2001-11-08 | Dragon Systems, Inc. | Error correction in speech recognition |
WO2002097726A1 (en) * | 2001-05-31 | 2002-12-05 | Mapinfo Corporation | System and method for geocoding diverse address formats |
US20030023371A1 (en) * | 2001-06-29 | 2003-01-30 | Spencer Stephens | Navigator that receives a location identifier and related systems and methods |
US7444286B2 (en) | 2001-09-05 | 2008-10-28 | Roth Daniel L | Speech recognition using re-utterance recognition |
JPWO2003093766A1 (ja) * | 2002-04-30 | 2005-09-08 | 株式会社日立製作所 | 通信型ナビゲーションシステムおよびナビゲーション方法 |
JP3986015B2 (ja) | 2003-01-27 | 2007-10-03 | 日本放送協会 | 音声認識誤り修正装置、音声認識誤り修正方法および音声認識誤り修正プログラム |
US7107147B2 (en) * | 2004-09-14 | 2006-09-12 | Alpine Electronics, Inc | Data correction method and apparatus using key filtering function for entering data in navigation system |
US8606516B2 (en) * | 2004-11-30 | 2013-12-10 | Dash Navigation, Inc. | User interface system and method for a vehicle navigation device |
JP4574390B2 (ja) | 2005-02-22 | 2010-11-04 | キヤノン株式会社 | 音声認識方法 |
US20060293889A1 (en) | 2005-06-27 | 2006-12-28 | Nokia Corporation | Error correction for speech recognition systems |
DE102006008221A1 (de) * | 2006-02-22 | 2007-08-23 | Bayerische Motoren Werke Ag | Verfahren zur Eingabe von Eingabedaten in ein Fahrzeugnavigationsgerät |
FR2901602B1 (fr) * | 2006-05-29 | 2008-07-18 | Fabernovel Sarl | Susteme d'assistance a l'orientation |
JP4867654B2 (ja) | 2006-12-28 | 2012-02-01 | 日産自動車株式会社 | 音声認識装置、および音声認識方法 |
DE102008027958A1 (de) | 2008-03-03 | 2009-10-08 | Navigon Ag | Verfahren zum Betrieb eines Navigationssystems |
US20110099507A1 (en) * | 2009-10-28 | 2011-04-28 | Google Inc. | Displaying a collection of interactive elements that trigger actions directed to an item |
US20110179353A1 (en) * | 2010-01-19 | 2011-07-21 | Research In Motion Limited | Mobile Electronic Device and Associated Method Providing Proposed Spelling Corrections Based Upon a Location of Cursor At or Adjacent a Character of a Text Entry |
US8315799B2 (en) * | 2010-05-11 | 2012-11-20 | International Business Machines Corporation | Location based full address entry via speech recognition |
-
2011
- 2011-04-25 US US13/093,797 patent/US9188456B2/en active Active
-
2012
- 2012-04-11 JP JP2012089996A patent/JP2012230670A/ja active Pending
- 2012-04-23 EP EP12165105A patent/EP2518447A1/en not_active Ceased
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293195A (ja) * | 1999-04-09 | 2000-10-20 | Hitachi Ltd | 音声入力装置 |
JP2001075593A (ja) * | 1999-06-29 | 2001-03-23 | Omron Corp | 音声認識装置および方法、並びに記録媒体 |
JP2002318136A (ja) * | 2001-02-15 | 2002-10-31 | Navigation Technol Corp | 自動音声認識プログラムのための空間構築単語リスト及びその形成方法 |
JP2003114696A (ja) * | 2001-10-03 | 2003-04-18 | Denso Corp | 音声認識装置、プログラム及びナビゲーションシステム |
JP2004240244A (ja) * | 2003-02-07 | 2004-08-26 | Nissan Motor Co Ltd | 音声認識装置 |
JP2008097082A (ja) * | 2006-10-06 | 2008-04-24 | Mitsubishi Electric Corp | 音声対話装置 |
Also Published As
Publication number | Publication date |
---|---|
US20120272177A1 (en) | 2012-10-25 |
US9188456B2 (en) | 2015-11-17 |
EP2518447A1 (en) | 2012-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012230670A (ja) | 戻ることによって誤認識を修正するシステム、方法及びコンピュータプログラム | |
US20220301566A1 (en) | Contextual voice commands | |
CN107408385B (zh) | 开发者语音动作系统 | |
US10043520B2 (en) | Multilevel speech recognition for candidate application group using first and second speech commands | |
US9002708B2 (en) | Speech recognition system and method based on word-level candidate generation | |
RU2699587C2 (ru) | Обновление моделей классификаторов понимания языка на основе краудсорсинга | |
KR101418163B1 (ko) | 컨텍스트 정보를 이용한 음성 인식 복구 | |
US8996386B2 (en) | Method and system for creating a voice recognition database for a mobile device using image processing and optical character recognition | |
KR101881985B1 (ko) | 컨텍스트에 기초한 음성 인식 문법 선택 | |
CN111095400A (zh) | 选择系统和方法 | |
JP5968578B2 (ja) | ユーザインターフェースシステム、ユーザインターフェース制御装置、ユーザインターフェース制御方法およびユーザインターフェース制御プログラム | |
JP5860171B2 (ja) | 入力処理方法及び装置 | |
CN110325987B (zh) | 语境语音驱动深度书签 | |
CN107832035B (zh) | 一种智能终端的语音输入方法 | |
JP6102282B2 (ja) | 施設検索システム、施設検索プログラム、車両用の装置 | |
WO2016136207A1 (ja) | 音声対話装置、音声対話システム、音声対話装置の制御方法、および、プログラム | |
JP2013007917A (ja) | 音声認識制御システム、音声認識制御方法、及び音声認識制御プログラム | |
WO2019035373A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2018028733A (ja) | 入力装置、入力装置の制御方法、表示装置および入力プログラム | |
JP2014065359A (ja) | 表示制御装置、表示システム及び表示制御方法 | |
AU2020264367B2 (en) | Contextual voice commands | |
US10401184B2 (en) | Information processing device and information presentation system | |
JP6115202B2 (ja) | 音声認識システム、方法およびプログラム | |
WO2016136208A1 (ja) | 音声対話装置、音声対話システム、および、音声対話装置の制御方法 | |
JP5895878B2 (ja) | 入力支援システム、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160412 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161018 |