JP2015129672A - 施設検索装置および方法 - Google Patents

施設検索装置および方法 Download PDF

Info

Publication number
JP2015129672A
JP2015129672A JP2014001087A JP2014001087A JP2015129672A JP 2015129672 A JP2015129672 A JP 2015129672A JP 2014001087 A JP2014001087 A JP 2014001087A JP 2014001087 A JP2014001087 A JP 2014001087A JP 2015129672 A JP2015129672 A JP 2015129672A
Authority
JP
Japan
Prior art keywords
address
registration information
facility
user
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014001087A
Other languages
English (en)
Inventor
淳也 水野
Junya Mizuno
淳也 水野
啓介 近藤
Keisuke Kondo
啓介 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Alpine Electronics Inc
Original Assignee
Honda Motor Co Ltd
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Alpine Electronics Inc filed Critical Honda Motor Co Ltd
Priority to JP2014001087A priority Critical patent/JP2015129672A/ja
Priority to US14/590,534 priority patent/US20150192425A1/en
Publication of JP2015129672A publication Critical patent/JP2015129672A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】住所を音声入力する際に利用者に馴染みのある発話例を表示することができる施設検索装置および方法を提供すること。
【解決手段】車載装置1は、利用者によって発声される音声を入力するためのマイクロホン22と、マイクロホン22を用いた音声入力に先立って利用者に対して発話例を提供する発話例提供部58と、利用者の操作に対応して登録および更新される登録情報であって、住所そのものあるいは住所が特定可能な個別情報が含まれる登録情報を格納するハードディスク装置70と、ハードディスク装置70に格納された一の登録情報を読み出し、この登録情報に対応する住所を発話例として設定する発話例設定部57とを備えている。
【選択図】図1

Description

本発明は、検索対象となる施設の住所を音声にて入力する施設検索装置および方法に関する。
従来から、音声にて住所を入力する際に「例えば愛知県刈谷市昭和町と入力して下さい」というような発話例を音声出力して、音声入力を案内するようにしたナビゲーションシステムが知られていている(例えば、特許文献1参照。)。また、所定のデータ入力欄に対して音声にてデータ入力を行う際に、指示された入力欄へデータを入力するための発声例を表示、もしくは音声出力するようにした情報処理装置が知られている(例えば、特許文献2参照。)。
特開平11−38995号公報 特開2004−21920号公報
ところで、上述した特許文献1に開示されたナビゲーションシステムや特許文献2に開示された情報処理装置では、音声入力する際に発話例を表示しており、利用者はこの発話例の表示内容を参考にすることで、所定の入力形式で音声入力を行うことが容易となる。しかし、これらの発話例は、ナビゲーションシステムや情報処理装置において予め用意された固定の表示内容であり、施設検索の際の住所入力に応答すると、利用者にとっては馴染みのない住所が発話例として表示される可能性があり、必ずしもわかりやすいとはいえないという問題があった。
本発明は、このような点に鑑みて創作されたものであり、その目的は、住所を音声入力する際に利用者に馴染みのある発話例を提示することができる施設検索装置および方法を提供することにある。
上述した課題を解決するために、本発明の施設検索装置は、利用者によって発声される音声を入力するための集音手段と、集音手段を用いた音声入力に先立って、利用者に対して発話例を提供する発話例提供手段と、利用者の操作に対応して登録および更新される登録情報であって、住所そのものあるいは住所が特定可能な個別情報が含まれる登録情報を格納する登録情報格納手段と、登録情報格納手段に格納された一の登録情報を読み出し、この登録情報に対応する住所を発話例として設定する発話例設定手段とを備えている。
また、本発明の施設検索方法は、利用者によって発声される音声を集音手段によって集音するステップと、集音手段を用いた音声入力に先立って、利用者に対して発話例を発話例提供手段によって提供するステップと、利用者の操作に対応して登録および更新される登録情報であって、住所そのものあるいは住所が特定可能な個別情報が含まれる登録情報が登録情報格納手段に格納されている場合に、発話例設定手段によって、登録情報格納手段に格納された一の登録情報を読み出し、この登録情報に対応する住所を発話例として設定するステップとを有している。
利用者自身の操作に起因して登録された情報に基づいて住所が抽出され、発話例として用いられるため、住所を音声入力する際に利用者に馴染みのある発話例を提示することが可能となる。
また、上述した発話例提供手段は、発話例としての住所を内容とする文字列を表示することが望ましい。これにより、文字列の形式で住所を表示することにより、利用者に馴染みのある発話例としての住所を表示することが可能となる。
また、上述した集音手段を用いた入力音声に対して音声認識処理を行う音声認識手段と、音声認識手段による音声認識処理によって得られた文字列で示される住所に対応する施設を検索する施設検索手段とをさらに備えることが望ましい。これにより、利用者は、馴染みのある発話例を参考に住所を音声入力するだけで、希望する施設を検索することが可能となる。
また、目的地までの移動経路を経路探索処理によって計算する経路探索手段と、利用者の操作に対応して目的地を設定する目的地設定手段とをさらに備え、登録情報格納手段は、目的地設定手段によって過去に設定された目的地を登録情報として格納することが望ましい。経路探索の目的地は、利用者が実際に移動した、あるいは、移動を予定した場所であり、その場所の住所を発話例として用いることにより、確実に利用者に馴染みのある発話例を提示することが可能となる。
また、利用者の操作に対応して利用者が登録を希望する施設あるいは住所を指定する施設/住所指定手段をさらに備え、登録情報格納手段は、施設/住所指定手段によって過去に指定された施設あるいは住所を登録情報として格納することが望ましい。利用者自身が登録を希望した施設あるいは住所を発話例として用いることにより、確実に利用者に馴染みのある発話例を提示することが可能となる。
また、利用者の操作に対応して個々の氏名あるいは名称に対応する住所をアドレス情報として指定するアドレス指定手段をさらに備え、登録情報格納手段は、アドレス指定手段によって過去に指定されたアドレス情報を登録情報として格納することが望ましい。利用者自身が指定したアドレス情報としての住所を発話例として用いることにより、確実に利用者に馴染みのある発話例を提示することが可能となる。
また、上述した発話例設定手段は、登録情報格納手段に格納された複数の登録情報の中から最も新しく格納された一の登録情報を読み出して、この登録情報に対応する住所を発話例として設定することが望ましい。利用者が最後に関係した登録情報の住所を発話例として用いることにより、確実に利用者に馴染みのある発話例を提示することが可能となる。
また、上述した発話例設定手段は、登録情報格納手段に格納された複数の登録情報の中からランダムに選択した一の登録情報を読み出して、この登録情報に対応する住所を発話例として設定することが望ましい。これにより、発話例を提示する毎に、利用者に馴染みのある様々な住所を抽出することができ、利用者にとって飽きのこない発話例を提示することが可能となる。
一実施形態の車載装置の構成を示す図である。 目的地履歴データの内容を示す図である。 地点登録データの内容を示す図である。 アドレス帳データの内容を示す図である。 施設検索する際に検索対象の施設の住所を音声入力する動作手順を示す流れ図である。 発話例を示す表示画面の説明図である。
以下、本発明の施設検索装置を適用した一実施形態の車載装置について、図面を参照しながら説明する。
図1は、一実施形態の車載装置1の構成を示す図である。図1に示すように、車載装置1は、ナビゲーション処理部10、音声入力処理部20、音声認識処理部24、操作部40、発話スイッチ(SW)42、入力制御部44、制御部50、表示処理部60、表示装置62、デジタル−アナログ変換器(D/A)64、スピーカ66、ハードディスク装置(HDD)70、USB(Universal Serial Bus)インタフェース部(USB I/F)80を備えている。
ナビゲーション処理部10は、ハードディスク装置70に記憶されている地図データ71を用いて車載装置1が搭載された車両の走行を案内するナビゲーション動作を行う。自車位置を検出するGPS装置12とともに用いられる。車両の走行を案内するナビゲーション動作には、地図表示の他に、経路探索処理部14によって行われる経路探索処理や、施設検索部16によって行われる周辺施設検索処理などが含まれる。なお、自車位置検出は、GPS12の他にジャイロセンサや車速センサ等の自律航法センサを組み合わせて用いるようにしてもよい。
音声入力処理部20は、マイクロホン22によって集音された利用者(話者)の音声の入力処理を行う。例えば、音声入力処理部20にはアナログ−デジタル変換器(A/D)が備わっており、マイクロホン22の出力信号がデジタルの音声データに変換される。
音声認識処理部24は、マイクロホン22によって集音した音声に対して音声認識処理を行うためのものであり、音声認識辞書26、音声認識部28を含んでいる。音声認識辞書26は、少なくとも利用者が発声する住所について音声認識処理を行うためのものであるが、車載装置1に対して操作指示を行う操作コマンドなども音声認識対象に含めるようにしてもよい。音声認識部28は、マイクロホン22によって集音した利用者の音声に対して音声認識辞書26を用いて音声認識処理を行い、利用者が発声した住所の内容(文字列)を特定する。
操作部40は、車載装置1に対する利用者による手動操作を受け付けるためのものであり、各種の操作キー、操作スイッチ、操作つまみ等が含まれる。また、表示装置62に各種の操作画面や入力画面が表示された時点で、これらの操作画面や入力画面の一部を利用者が指などで直接指し示すことにより、操作画面や入力画面の表示項目を選択することができるようになっており、このような操作画面や入力画面を用いた操作を可能とするために、指し示された指などの位置を検出するタッチパネルが操作部40の一部として備わっている。なお、タッチパネルを用いる代わりに、リモートコントロールユニット等を用いて操作画面や入力画面の一部を利用者の指示に応じて選択するようにしてもよい。発話スイッチ42は、利用者がマイクロホン22に向けて発声する際に利用者によって操作されて発話タイミングを指示するために用いられる。入力制御部44は、操作部40および発話スイッチ42を監視しており、これらの操作内容を決定する。
制御部50は、車載装置1の全体を制御するとともに、ハンズフリー電話システムとしての動作などを行う。この制御部50は、ROMやRAMなどに格納された動作プログラムをCPUによって実行することにより実現される。また、図1では、この制御部50とは別にナビゲーション処理部10や音声認識処理部24などを設けたが、これらの一部の機能を制御部50によって実現するようにしてもよい。制御部50の詳細については後述する。
表示処理部60は、各種の操作画面や入力画面、ナビゲーション処理部10によって作成した地図画像を含む画面等を表示する映像信号を出力し、表示装置62にこれらの各種画面を表示する。デジタル−アナログ変換器64は、車載装置1がハンズフリー電話システムとして動作する場合の音声データやナビゲーション処理部10によって作成される交差点案内などの音声データなどをアナログの音声信号に変換してスピーカ66から出力する。なお、実際には、デジタル−アナログ変換器64とスピーカ66の間には信号を増幅する増幅器が接続されているが、図1ではこの増幅器は省略されている。また、デジタル−アナログ変換器64とスピーカ66との組合せは再生チャンネル数分備わっているが、図1では一組のみが図示されている。
ハードディスク装置70は、地図データ71の他に目的地履歴データ72、地点登録データ73、アドレス帳データ74が格納されている。地図データ71は、ナビゲーション処理部10によるナビゲーション動作に用いるものであり、地図表示に必要な描画データの他に、経路探索に必要なデータ、施設検索に必要な施設データ(施設名称、住所、電話番号など)、経路誘導に必要な交差点案内データなどが含まれる。目的地履歴データ72、地点登録データ73、アドレス帳データ74の内容については後述する。
USBインタフェース部80は、USBケーブルを介して携帯電話90などとの間で信号の入出力を行うためのものである。このUSBインタフェース80には、USBポートやUSBホストコントローラが含まれる。
次に、制御部50の詳細について説明する。図1に示すように、制御部50は、目的地設定部51、施設/住所指定部52、アドレス帳作成部53、電話処理部54、認識結果取得部55、入力処理部56、発話例設定部57、発話例提供部58を有している。
目的地設定部51は、経路探索処理部14に必要な目的地を設定する。例えば、施設検索部16によって特定の検索条件を満たす施設を検索して目的地として設定する場合や、表示装置62の画面上に地図画像を表示させた状態で、その地図画像の一部を利用者が操作部40を用いて指し示したときに、この指し示された位置を目的地として設定する場合などが考えられる。目的地設定部51によって設定された目的地は、経路探索処理部14の目的地として用いられるとともに、ハードディスク装置70に目的地履歴データ72として格納される。
目的地履歴データ72は、目的地設定部51によって設定された目的地であって、経路探索処理部14による経路探索処理において過去に用いられた目的地の履歴データである。例えば、所定個数(例えば、設定日時が新しい順に10個)の目的地を特定するデータが含まれる。
図2は、目的地履歴データ72の内容を示す図である。図2において、左側に示された数字1、2、3は、目的地設定の日時が新しい順に付加された通し番号である。また、目的地A、B、Cは、設定されたそれぞれの目的地を特定するデータを示しており、少なくとも住所a、b、cが含まれる。なお、目的地としての施設名等を特定することができれば、それらに対応する住所を地図データ71を用いて検索することが可能であるため、住所a、b、c等を含まないように目的地履歴データ72を作成するようにしてもよい。
施設/住所指定部52は、利用者による操作部40の操作に対応して利用者が登録を希望する地点(施設あるいは住所)を指定する。この指定により、利用者の自宅や、頻繁に目的地として用いる施設や住所を特定することが可能となる。具体的な指定の方法は、上述した目的地設定部51による目的地の設定方法と同じであり、施設検索部16によって特定の施設を検索する方法や、地図画像上の位置を直接指し示す方法などが用いられる。指定された施設や住所のデータは、ハードディスク装置70に地点登録データ73として格納される。
地点登録データ73は、施設/住所指定部52によって指定された地点(施設あるいは住所)の登録データである。例えば、所定個数(例えば10個)までの地点を特定するデータが含まれる。
図3は、地点登録データ73の内容を示す図である。図3において、左側に示された数字1、2、3、4は、登録の日時が新しい順に付加された通し番号である。また、地点A、B、C、Dは、指定された地点を特定するデータを示しており、少なくとも住所a、b、c、dが含まれる。なお、地点の施設名等を特定することができれば、それらに対応する住所を地図データ71を用いて検索することが可能であるため、住所a、b、c等を含まないように地点登録データ73を作成するようにしてもよい。
アドレス帳作成部53は、利用者による操作部40の操作に対応して個々の氏名あるいは名称に対応するアドレス帳を作成する。このアドレス帳は、操作部40を操作して詳細データを入力する他に、USBインタフェース部80を介して接続された携帯電話90に登録されている電話帳データを読み込んで取得するようにしてもよい。このアドレス帳のデータは、ハードディスク装置70にアドレス帳データ74として格納される。
図4は、アドレス帳データ74の内容を示す図である。図4において、左側に示された数字1、2、3、4は、登録の日付が新しい順に付加された通し番号である。また、氏名/名称A、B、C、Dは、氏名または名称である。ここで、名称は、施設の正確な名称だけでなく、略称やあだ名、個人や団体等を特定する記号などであってもよい。また、住所、電話番号、メールアドレスについては、必ずしも全ての項目のデータが含まれている必要はなく、一部の項目のデータのみが含まれていてもよい。
電話処理部54は、ハードディスク装置70に格納されたアドレス帳データ74に含まれるいずれかの電話番号に対して、あるいは、利用者が操作部40を用いて直接電話番号を入力した場合にはその電話番号に対して、携帯電話90を用いて電話を掛ける発呼処理を行う。また、電話処理部54は、通話相手との間で電話回線の接続が行われた後は、マイクロホン22によって集音した話者の音声を通話相手に送信するとともに、通話相手の音声をスピーカ66から出力する処理を行う。このようにして、電話処理部54によって携帯電話90を利用したハンズフリー電話システムが実現される。
認識結果取得部55は、音声認識処理部24による音声認識結果を取得する。入力処理部56は、認識結果取得部55によって取得した音声認識処理部24による認識結果と操作部40を用いた操作内容のいずれかを、車載装置1に対する操作指示あるいは情報入力の内容として選択する。
発話例設定部57は、ハードディスク装置70に格納された登録情報としての目的地履歴データ72、地点登録データ73、アドレス帳データ74に含まれる一のデータを読み出し、このデータに含まれる(あるいは、このデータに対応する)住所を発話例として設定する。発話例提供部58は、マイクロホン22を用いた住所の音声入力に先立って、発話例設定部57によって設定された発話例を提示(具体的には、住所を示す文字列を表示)する。
上述したマイクロホン22が集音手段に、発話例提供部58が発話例提供手段に、ハードディスク装置70が登録情報格納手段に、発話例設定部57が発話例設定手段に、音声認識処理部24が音声認識手段に、施設検索部16が施設検索手段にそれぞれ対応する。また、経路探索処理部14が経路探索手段に、目的地設定部51が目的地設定手段に、施設/住所指定部52が施設/住所指定手段に、アドレス帳作成部53がアドレス指定手段にそれぞれ対応する。
本実施形態の車載装置1はこのような構成を有しており、次に、その動作を説明する。図5は、施設検索する際に検索対象の施設の住所を音声入力する動作手順を示す流れ図である。
まず、発話例設定部57は、住所の音声入力が指示されたか否かを判定する(ステップ100)。音声入力が指示されない場合には否定判断が行われ、この判定を繰り返す。また、音声入力が指示された場合にはステップ100の判定において肯定判断が行われる。例えば、施設検索画面において住所入力が指定されると、音声入力が指示されたものとする場合が考えられる。
次に、発話例設定部57は、発話例を設定する(ステップ102)。例えば、図2に示す目的地履歴データ72の中から1つの目的地に対応するデータを選択し、その中から住所を抽出し、この抽出した住所の文字列を発話例として設定する。1つの目的地を選択する方法としては、最も新しく追加された目的地(通し番号1に対応する目的地)を選択する場合や、全体あるいは最新の所定個数の目的地の中からランダムに選択する場合などが考えられる。
また、図3に示す地点登録データ73の中から1つの地点に対応するデータを選択し、その中から住所を抽出し、この抽出した住所の文字列を発話例として設定する。1つの地点を選択する方法としては、最も新しく追加された地点(通し番号1に対応する地点)を選択する場合や、全体あるいは最新の所定個数の地点の中からランダムに選択する場合などが考えられる。
また、図4に示すアドレス帳データ74の中から1つの氏名/名称に対応するデータを選択し、その中から住所を抽出し、この抽出した住所の文字列を発話例として設定する。1つの氏名/名称を選択する方法としては、最も新しく追加された地点(通し番号1に対応する氏名/名称)を選択する場合や、全体あるいは最新の所定個数の氏名/名称の中からランダムに選択する場合などが考えられる。なお、氏名/名称の中には、対応する住所が含まれないものもあるため、このような氏名/名称は発話例設定の対象から除外される。
なお、上述した説明では、目的地履歴データ72、地点登録データ73、アドレス帳データ74のいずれか1つを用い、さらにその中から1つの住所を抽出するようにしたが、目的地履歴データ72、地点登録データ73、アドレス帳データ74の中から2つあるいは3つ全部を対象にしてその中から1つの住所を抽出するようにしてもよい。この場合には、最も新しく登録されたデータに含まれる住所を抽出する場合や、ランダムにデータを選択してその中に含まれる住所を抽出する場合などが考えられる。
次に、発話例提供部58は、発話例として設定された住所を表示装置62に表示する(ステップ104)。図6は、発話例を示す表示画面の説明図である。図6の表示画面に含まれる「1900 HARPERS WAY TORRANCE,CA」が、発話例としての住所を示す文字列である。この例は、米国の住所を入力する際の発話例であり、利用者が住所を音声入力する際に、州名などの並びの順番(入力順)を指定している。利用者は、この発話例を確認することにより、利用者が誤った順番で住所を発声することを未然に防止することができる。例えば、利用者が、誤って州名を最初に音声入力するようなミスを防止することができる。
次に、入力処理部56は、利用者による住所の音声入力ありか否かを判定する(ステップ106)。音声入力がない場合には否定判断が行われ、この判定が繰り返される。なお、発話例にしたがわない住所の入力が行われた場合や、発音が不鮮明であって住所が特定できない場合にもステップ106の判定において否定判断が行われ、この判定が繰り返される。
また、例えば発話スイッチ42が押下された後に利用者によって住所が発声されて音声入力が行われると、ステップ106の判定において肯定判断が行われる。この場合には、入力処理部56は、入力された音声に対応する住所を決定する(ステップ108)。施設検索部16は、決定した住所に対応する施設を検索するとともに(ステップ110)、検索結果としての施設に関する情報を表示装置62に表示する(ステップ112)。
このように、本実施形態の車載装置1では、利用者自身の操作に起因して登録された情報に基づいて住所が抽出され、発話例として用いられるため、住所を音声入力する際に利用者に馴染みのある発話例を提示することが可能となる。特に、発話例として文字列の形式で住所を表示することにより、利用者に馴染みのある発話例としての住所を表示することが可能となる。
また、発話例を確認した後に入力された利用者の音声に対して音声認識処理を行い、この音声認識処理によって得られた文字列で示される住所に対応する施設を検索している。これにより、利用者は、馴染みのある発話例を参考に住所を音声入力するだけで、希望する施設を検索することが可能となる。
また、経路探索の目的地は、利用者が実際に移動した、あるいは、移動を予定した場所であり、その場所の住所を発話例として用いることにより、確実に利用者に馴染みのある発話例を提示することが可能となる。あるいは、利用者自身が登録を希望した施設あるいは住所を発話例として用いることにより、確実に利用者に馴染みのある発話例を提示することが可能となる。また、利用者自身が指定したアドレス情報としての住所を発話例として用いることにより、確実に利用者に馴染みのある発話例を提示することが可能となる。
また、利用者が最後に関係した最新の住所を発話例として用いることにより、確実に利用者に馴染みのある発話例を提示することが可能となる。あるいは、ランダムに住所を抽出することにより、発話例を提示する毎に、利用者に馴染みのある様々な住所を抽出することができ、利用者にとって飽きのこない発話例を提示が可能となる。
なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。上述した実施形態では、ハードディスク装置70に目的地履歴データ72、地点登録データ73、アドレス帳データ74が格納されている場合について説明したが、これら3つが必ずしも必要ではない。すなわち、これら3つの中の1つあるいは2つが格納されている場合に、それらの中から一のデータを選択し、このデータに含まれる住所を抽出して発話例として設定するようにしてもよい。
また、上述した実施形態では、目的地履歴データ72、地点登録データ73、アドレス帳データ74のそれぞれに含まれる1つの住所を抽出したが、目的地履歴データ72、地点登録データ73、アドレス帳データ74のそれぞれに含まれる住所の中で、発話例として適切でない住所を、抽出対象から除外するようにしてもよい。例えば、米国の住所を考えた場合に、州名がなかったり、州名が最初あるいは途中に配置されている場合には、適切でない住所であるといえる。また、音声認識処理の対象として想定している言語以外の言語が使用される国あるいは地域の住所についても、適切でない住所であるといえる。
また、上述した実施形態では、車両に搭載された車載装置1について説明したが、車載装置1と同様あるいは類似の機能を有する携帯端末において発話例を利用者に提供する場合にも本発明を適用することができる。
上述したように、本発明によれば、利用者自身の操作に起因して登録された情報に基づいて住所が抽出され、発話例として用いられるため、住所を音声入力する際に利用者に馴染みのある発話例を提示することが可能となる。
1 車載装置
10 ナビゲーション処理部
14 経路探索処理部
16 施設検索部
22 マイクロホン
24 音声認識処理部
40 操作部
44 入力制御部
50 制御部
51 目的地設定部
52 施設/住所指定部
53 アドレス帳作成部
54 電話処理部
55 認識結果取得部
56 入力処理部
57 発話例設定部
58 発話例提供部
62 表示装置
70 ハードディスク装置(HDD)

Claims (9)

  1. 利用者によって発声される音声を入力するための集音手段と、
    前記集音手段を用いた音声入力に先立って、利用者に対して発話例を提供する発話例提供手段と、
    利用者の操作に対応して登録および更新される登録情報であって、住所そのものあるいは住所が特定可能な個別情報が含まれる登録情報を格納する登録情報格納手段と、
    前記登録情報格納手段に格納された一の前記登録情報を読み出し、この登録情報に対応する住所を前記発話例として設定する発話例設定手段と、
    を備えることを特徴とする施設検索装置。
  2. 請求項1において、
    前記発話例提供手段は、前記発話例としての住所を内容とする文字列を表示することを特徴とする施設検索装置。
  3. 請求項1または2において、
    前記集音手段を用いた入力音声に対して音声認識処理を行う音声認識手段と、
    前記音声認識手段による音声認識処理によって得られた文字列で示される住所に対応する施設を検索する施設検索手段と、
    をさらに備えることを特徴とする施設検索装置。
  4. 請求項1〜3のいずれか一項において、
    目的地までの移動経路を経路探索処理によって計算する経路探索手段と、
    利用者の操作に対応して前記目的地を設定する目的地設定手段と、
    をさらに備え、
    前記登録情報格納手段は、前記目的地設定手段によって過去に設定された目的地を前記登録情報として格納することを特徴とする施設検索装置。
  5. 請求項1〜3のいずれか一項において、
    利用者の操作に対応して利用者が登録を希望する施設あるいは住所を指定する施設/住所指定手段をさらに備え、
    前記登録情報格納手段は、前記施設/住所指定手段によって過去に指定された施設あるいは住所を前記登録情報として格納することを特徴とする施設検索装置。
  6. 請求項1〜3のいずれか一項において、
    利用者の操作に対応して個々の氏名あるいは名称に対応する住所をアドレス情報として指定するアドレス指定手段をさらに備え、
    前記登録情報格納手段は、前記アドレス指定手段によって過去に指定されたアドレス情報を前記登録情報として格納することを特徴とする施設検索装置。
  7. 請求項4〜6のいずれか一項において、
    前記発話例設定手段は、前記登録情報格納手段に格納された複数の前記登録情報の中から最も新しく格納された一の前記登録情報を読み出して、この登録情報に対応する住所を前記発話例として設定することを特徴とする施設検索装置。
  8. 請求項4〜6のいずれか一項において、
    前記発話例設定手段は、前記登録情報格納手段に格納された複数の前記登録情報の中からランダムに選択した一の前記登録情報を読み出して、この登録情報に対応する住所を前記発話例として設定することを特徴とする施設検索装置。
  9. 利用者によって発声される音声を集音手段によって集音するステップと、
    前記集音手段を用いた音声入力に先立って、利用者に対して発話例を発話例提供手段によって提供するステップと、
    利用者の操作に対応して登録および更新される登録情報であって、住所そのものあるいは住所が特定可能な個別情報が含まれる登録情報が登録情報格納手段に格納されている場合に、発話例設定手段によって、前記登録情報格納手段に格納された一の前記登録情報を読み出し、この登録情報に対応する住所を前記発話例として設定するステップと、
    を有することを特徴とする施設検索方法。
JP2014001087A 2014-01-07 2014-01-07 施設検索装置および方法 Pending JP2015129672A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014001087A JP2015129672A (ja) 2014-01-07 2014-01-07 施設検索装置および方法
US14/590,534 US20150192425A1 (en) 2014-01-07 2015-01-06 Facility search apparatus and facility search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014001087A JP2015129672A (ja) 2014-01-07 2014-01-07 施設検索装置および方法

Publications (1)

Publication Number Publication Date
JP2015129672A true JP2015129672A (ja) 2015-07-16

Family

ID=53494919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014001087A Pending JP2015129672A (ja) 2014-01-07 2014-01-07 施設検索装置および方法

Country Status (2)

Country Link
US (1) US20150192425A1 (ja)
JP (1) JP2015129672A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755308B1 (ko) * 2015-11-19 2017-07-07 현대자동차주식회사 음성 인식 모듈, 그를 가지는 단말기 및 차량

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6418820B2 (ja) * 2014-07-07 2018-11-07 キヤノン株式会社 情報処理装置、表示制御方法、及びコンピュータプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916602A (ja) * 1995-06-27 1997-01-17 Sony Corp 翻訳装置および翻訳方法
JP3462322B2 (ja) * 1995-11-30 2003-11-05 沖電気工業株式会社 テキスト音声読み上げシステム
US5832429A (en) * 1996-09-11 1998-11-03 Texas Instruments Incorporated Method and system for enrolling addresses in a speech recognition database
DE19709518C5 (de) * 1997-03-10 2006-05-04 Harman Becker Automotive Systems Gmbh Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
US6233561B1 (en) * 1999-04-12 2001-05-15 Matsushita Electric Industrial Co., Ltd. Method for goal-oriented speech translation in hand-held devices using meaning extraction and dialogue
EP1083545A3 (en) * 1999-09-09 2001-09-26 Xanavi Informatics Corporation Voice recognition of proper names in a navigation apparatus
DE10012572C2 (de) * 2000-03-15 2003-03-27 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem
US7072838B1 (en) * 2001-03-20 2006-07-04 Nuance Communications, Inc. Method and apparatus for improving human-machine dialogs using language models learned automatically from personalized data
JP3974419B2 (ja) * 2002-02-18 2007-09-12 株式会社日立製作所 音声入力を用いた情報取得方法及び情報取得システム
DE10220524B4 (de) * 2002-05-08 2006-08-10 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
JP3814566B2 (ja) * 2002-06-20 2006-08-30 キヤノン株式会社 情報処理装置、情報処理方法、制御プログラム
JP2004037998A (ja) * 2002-07-05 2004-02-05 Denso Corp 音声制御装置
DE60314844T2 (de) * 2003-05-07 2008-03-13 Harman Becker Automotive Systems Gmbh Verfahren und Vorrichtung zur Sprachausgabe, Datenträger mit Sprachdaten
ATE426233T1 (de) * 2006-11-30 2009-04-15 Harman Becker Automotive Sys Interaktives spracherkennungssystem
US7983913B2 (en) * 2007-07-31 2011-07-19 Microsoft Corporation Understanding spoken location information based on intersections
US7437291B1 (en) * 2007-12-13 2008-10-14 International Business Machines Corporation Using partial information to improve dialog in automatic speech recognition systems
US8315799B2 (en) * 2010-05-11 2012-11-20 International Business Machines Corporation Location based full address entry via speech recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755308B1 (ko) * 2015-11-19 2017-07-07 현대자동차주식회사 음성 인식 모듈, 그를 가지는 단말기 및 차량

Also Published As

Publication number Publication date
US20150192425A1 (en) 2015-07-09

Similar Documents

Publication Publication Date Title
JP6346281B2 (ja) 車載対話型システム、及び車載情報機器
JP5158174B2 (ja) 音声認識装置
US7310602B2 (en) Navigation apparatus
US20170010859A1 (en) User interface system, user interface control device, user interface control method, and user interface control program
US9495088B2 (en) Text entry method with character input slider
JP2005292970A (ja) 施設検索装置、プログラム、ナビゲーション装置、及び施設検索方法
JP5364412B2 (ja) 検索装置
JP6522009B2 (ja) 音声認識システム
JP2015129672A (ja) 施設検索装置および方法
JP5986468B2 (ja) 表示制御装置、表示システム及び表示制御方法
JP2005275228A (ja) ナビゲーション装置
JP5455355B2 (ja) 音声認識装置及びプログラム
JP6202574B2 (ja) 電子システム、リスト表示方法およびリスト表示プログラム
JP4381632B2 (ja) ナビゲーションシステムおよびその目的地入力方法
JPWO2016035207A1 (ja) 車載機器制御システム
JP3705220B2 (ja) ナビゲーション装置、画像表示方法及び画像表示プログラム
JP2007199979A (ja) 地図表示装置およびナビゲーション装置
JP2017102320A (ja) 音声認識装置
WO2006028171A1 (ja) データ提示装置、データ提示方法、データ提示プログラムおよびそのプログラムを記録した記録媒体
JP2005316022A (ja) ナビゲーション装置及びプログラム
JP4645708B2 (ja) コード認識装置および経路探索装置
JP2011080824A (ja) ナビゲーション装置
JP2007280104A (ja) 情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体
JP2006047192A (ja) ナビゲーション装置、および周辺施設の検索方法
JP2020183985A (ja) 音声認識システム