JP2011080824A - Navigation device - Google Patents
Navigation device Download PDFInfo
- Publication number
- JP2011080824A JP2011080824A JP2009232285A JP2009232285A JP2011080824A JP 2011080824 A JP2011080824 A JP 2011080824A JP 2009232285 A JP2009232285 A JP 2009232285A JP 2009232285 A JP2009232285 A JP 2009232285A JP 2011080824 A JP2011080824 A JP 2011080824A
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- touch operation
- recognized
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
Abstract
Description
本発明は、ナビゲーション装置に関する。 The present invention relates to a navigation device.
タッチパネルのタッチ操作と、音声認識の結果とに基づいて所定の処理を行うナビゲーション装置が従来技術として知られている(たとえば、特許文献1)。 A navigation device that performs predetermined processing based on a touch operation on a touch panel and a result of voice recognition is known as a conventional technique (for example, Patent Document 1).
従来のナビゲーション装置では、同じタッチ操作が検出され、同じ語意が音声認識されたとき、ユーザにかかわらず画一的な処理が行われるので、操作性が悪い。 In the conventional navigation device, when the same touch operation is detected and the same word meaning is recognized by voice, uniform processing is performed regardless of the user, so that the operability is poor.
請求項1の発明のナビゲーション装置は、ユーザの音声を入力する音声入力手段と、音声入力手段によって入力された音声からユーザを特定するユーザ特定手段と、音声入力手段によって入力された音声の語意を認識する音声認識手段と、表示モニタ上におけるユーザのタッチ操作を認識するタッチ操作認識手段と、ユーザ特定手段によって特定されたユーザと、音声認識手段によって認識された語意と、タッチ操作認識手段によって認識されたタッチ操作とに基づいてナビゲーション機能に関する処理を実行する処理実行手段とを備えることを特徴とする。 The navigation device according to the first aspect of the present invention provides voice input means for inputting the user's voice, user specifying means for specifying the user from the voice input by the voice input means, and the meaning of the voice input by the voice input means. Recognizing voice recognition means, touch operation recognition means for recognizing a user's touch operation on the display monitor, user specified by the user specifying means, word meaning recognized by the voice recognition means, and recognition by the touch operation recognition means And a process execution means for executing a process related to the navigation function based on the touch operation performed.
本発明によれば、ユーザごとに適切にナビゲーションの各種機能の処理を実行することができる。 According to the present invention, it is possible to appropriately execute various navigation functions for each user.
図1は、本発明の実施形態によるナビゲーション装置1を示す。このナビゲーション装置1は、マイク113へのユーザの発話とユーザのタッチパネル19の操作とに基づいて、所定の処理を実行する。ナビゲーション装置1は、制御回路11、ROM12、RAM13、現在地検出装置14、画像メモリ15、表示モニタ16、スピーカ17、入力装置18、タッチパネル19、タッチパネルコントロール部110、ディスクドライブ111、マイク113、音声認識部114および辞書115を有する。ディスクドライブ111には、地図データが記憶されたDVD−ROM112が装填されている。
FIG. 1 shows a navigation device 1 according to an embodiment of the present invention. The navigation device 1 executes predetermined processing based on the user's utterance to the
制御回路11は、マイクロプロセッサ及びその周辺回路からなり、RAM13を作業エリアとしてROM12に格納された制御プログラムを実行して各種の制御を行う。また、制御回路11は、DVD−ROM112に記憶された地図データに基づいて所定の経路探索処理を行う。そして、その処理結果が推奨経路として表示モニタ16に表示される。また、制御回路11にはタイマ11aが内蔵されており、制御回路11は時間を計測することができる。
The control circuit 11 includes a microprocessor and its peripheral circuits, and performs various controls by executing a control program stored in the
現在地検出装置14は車両の走行軌跡を検出する装置である。現在地検出装置14は、振動ジャイロ14a、車速センサ14b、GPS(Global Positioning System)センサ14cなどからなる。振動ジャイロ14aは車両の進行方向を検出し、車速センサ14bは車速を検出し、GPSセンサ14cはGPS衛星からのGPS信号を検出する。ナビゲーション装置1は、この現在地検出装置14により検出された車両の現在地に基づいて、地図の表示範囲や経路探索開始点などを決定するとともに、地図上にその現在地を表示する。
The current
画像メモリ15は、表示モニタ16に表示するための画像データを格納する。この画像データは道路地図描画用データや各種の図形データからなり、それらはDVD−ROM112に記憶された地図データに基づいて、制御回路11において適宜生成される。
The
DVD−ROM112には、施設データが記憶されている。施設データとは、ガソリンスタンド、レストランなどジャンル別に分類した施設(POI)に関するデータである。施設データは、施設の位置を示す位置データ、施設の住所データや電話データなどを含む。施設はいずれかのジャンルに分類されてテーブル化され、ジャンル別のアイコンにより地図上に重ねて表示される。施設アイコンを常時表示するアイコン表示モードが選択されている場合、予め定めたジャンルの施設アイコンが地図画面に表示される。
なお、以下に詳述するように、目的地設定モードにおいては、施設検索結果による画面上の施設アイコンを押圧することにより、当該施設が目的地に設定される。
The DVD-
As will be described in detail below, in the destination setting mode, the facility is set as the destination by pressing the facility icon on the screen according to the facility search result.
ディスクドライブ111は、DVD−ROM112から地図データを読み出す。地図データは、地図表示用データ、経路探索用データなどを含む。地図表示用データおよび経路探索用データには、地図データに格納されている道路のリンク情報およびノード情報が含まれている。地図表示用データは、広域から詳細まで複数の縮尺の地図データを有し、ユーザの要求にしたがって、表示地図の縮尺を変更することができる。なお、DVD−ROM112以外の他の記録メディア、たとえばCD−ROMやハードディスクなどより地図データを読み出してもよい。
The
表示モニタ16は、地図データなどの各種情報に基づいて、自車位置付近の地図などの各種情報を表示する。スピーカ17は、各種入力操作をユーザに指示したり、経路誘導したりするための音声を出力する。入力装置18は、ユーザが各種コマンドの設定や検索条件の入力などするための操作キーを有し、操作パネル上のボタンスイッチやパネル周囲のハードスイッチなどによって実現される。ユーザは、表示モニタ16の表示画面の指示やスピーカ17からの音声指示にしたがって入力装置18を操作することにより、目的地を設定する。
The
タッチパネル19は、表示モニタ16の表面に積層される透明のタッチスイッチであり、表示モニタ16に表示される画像はタッチパネル19を透過して表示される。タッチパネル19は、タッチパネル19上の操作位置に応じた信号をタッチパネルコントロール部110に送出する。そして、タッチパネルコントロール部110はタッチパネル19がタッチされた位置を算出する。表示モニタ16の表示画面をタッチするとタッチパネル19がタッチされる。そして、タッチされた各種ボタンや表示メニューに定義された処理が実行される。
The
目的地がユーザにより設定されると、ナビゲーション装置1は現在地検出装置14により検出された現在地を出発地として目的地までの経路演算を所定のアルゴリズムに基づいて行う。このようにして求められた経路(以下、推奨経路という)は、表示形態、たとえば表示色などを変えることによって、ほかの道路とは区別して画面表示される。これにより、ユーザは地図上の推奨経路を画面上で認識することができる。また、ナビゲーション装置1は、推奨経路にしたがって車両が走行できるように、ユーザに対して画面や音声などによる進行方向指示を行い、車両を経路誘導する。
When the destination is set by the user, the navigation device 1 performs a route calculation from the current location detected by the current
マイク113は、ユーザが発する音声を入力する。音声認識部114は、マイク113で入力された音声の音声パターンを辞書115に格納されている音声パターンと照合して音声が表す語意を認識する。その認識結果は制御回路11へ出力される。マイク113には、不図示の音声認識ボタンが設けられており、音声認識ボタンがオンされると、音声認識部114は入力された音声に対して音声認識を行う。
The
また、音声認識部114は、登録されたユーザの中から発話者を特定することができる。登録方法としては、たとえば、発話者を特定するために予め設定した語意(発話者特定語意)をマイク113に向かって複数のユーザに発話させ、音声認識部114は、各ユーザの発する音声の特徴点を抽出し、ユーザと音声パターンの特徴点とを対応付けたテーブルとして登録する。そして、ユーザがマイク113に向かって発話者特定語意を発話すると、音声認識部114は、マイク113に入力された音声の特徴点を抽出し、上記テーブルを参照して、発話者を特定する。
In addition, the
次に、図2のフローチャートを参照して、本発明の実施形態におけるナビゲーション装置の機能実行処理を説明する。図2の処理は、マイク113に設けられた不図示の音声認識ボタンがオンされるとスタートするプログラムにより、制御回路11において実行される。
Next, the function execution process of the navigation device in the embodiment of the present invention will be described with reference to the flowchart of FIG. The processing in FIG. 2 is executed in the control circuit 11 by a program that starts when a voice recognition button (not shown) provided in the
ステップS101では、マイク113に音声が入力されたか否かを判定する。音声が入力された場合はステップS101が肯定判定され、ステップS102へ進む。音声が入力されていない場合はステップS101を繰り返す。ステップS102では、タイマ11aをスタートする。ステップS103では、タッチパネルコントロール部110が算出したタッチパネル19のタッチされた位置に基づいて、タッチパネルにタッチ操作があったか否かを判定する。タッチ操作があった場合はステップS103が肯定判定され、ステップS104へ進む。タッチ操作がない場合はステップS103が否定判定され、ステップS106へ進む。
In step S101, it is determined whether or not sound is input to the
ステップS104では、音声認識&タッチ操作モード処理を実行する。音声認識&タッチ操作モード処理の詳細は後述する。ステップS105では、マイク113に設けられた不図示の音声認識ボタンがオフされたか否かを判定する。音声認識ボタンがオフされた場合はステップS105が肯定判定され、ナビゲーション装置の機能実行処理を終了する。音声認識ボタンがオンの状態である場合はステップS105が否定判定され、ステップS101に戻る。
In step S104, voice recognition & touch operation mode processing is executed. Details of the voice recognition & touch operation mode processing will be described later. In step S105, it is determined whether or not a voice recognition button (not shown) provided on the
ステップS106では、タイマ11aがスタートしてから所定時間経過したか否かを判定する。所定時間経過した場合はステップS106が肯定判定され、ステップS107へ進む。まだ所定時間を経過していない場合はステップS106が否定判定され、ステップS103に戻る。ステップS107では、通常音声認識モード処理を実行する。通常音声認識モード処理は、マイク113から入力された音声を認識し、その認識結果に基づいて処理を実行するというモードである。通常音声認識モード処理は、通常の音声認識による処理と変わらないので、通常音声認識モード処理の説明は省略するが、たとえば、ユーザにかかわらず、入力した発話内容を認識した結果による処理を行うものである。そして、ステップS105へ進む。
In step S106, it is determined whether or not a predetermined time has elapsed since the
次に、図3を参照して、図2のステップS104の音声認識&タッチ操作モード処理を説明する。 Next, with reference to FIG. 3, the voice recognition & touch operation mode process in step S104 of FIG. 2 will be described.
ステップS201では、マイク113から入力された音声を分析する。ステップS202では、音声認識部114に発話内容を認識させる。ステップS203では、音声認識部114に対してユーザを特定する処理を実行させる。
In step S201, the voice input from the
ステップS204では、タッチパネルコントロール部110によって算出されたタッチパネル19のタッチ位置に基づいて、どのようなタッチ操作が行われたかを認識する。ステップS205では、ステップS202で認識された発話内容(語意)と、ステップS203で特定されたユーザと、ステップS204で認識されたタッチ操作とに基づいてナビゲーション装置1が実行する処理を決定する。ステップS206では、ステップS205で決定された処理をナビゲーション装置1に実行させる。
In step S204, based on the touch position of the
たとえば、図4に示すように、ユーザAが「目的地」と発話したときは、タッチした位置に目的地を設定し、ユーザBが「目的地」と発話したときは、タッチした位置を中心としてレジャー施設の周辺施設検索を行うように、初期設定で登録しておく。また、ユーザAが「レストラン」と発話したときは、タッチ操作で指定した範囲において中華料理店の施設検索を行い、ユーザBが「レストラン」と発話したときは、タッチ操作で指定した範囲において日本料理店の施設検索を行うように初期設定で登録しておく。 For example, as shown in FIG. 4, when user A speaks “destination”, the destination is set at the touched position, and when user B speaks “destination”, the touched position is centered. As a default, registration is performed so that the peripheral facility search of the leisure facility is performed. In addition, when user A speaks “restaurant”, the facility search of the Chinese restaurant is performed within the range specified by the touch operation, and when user B speaks “restaurant”, Japan is searched within the range specified by the touch operation. Register by default to search for restaurant facilities.
そして、ユーザAが「目的地」と発話して、表示モニタ16に表示された地図20をタッチすると、図5(a)に示すように、タッチした位置21に目的地が設定される。一方、ユーザBが「目的地」と発話して、表示モニタ16に表示された地図20をタッチすると、図5(b)に示すように、タッチした位置21を中心としてレジャー施設の周辺施設検索が行われ、検索された施設のアイコン22a〜22cが地図20上に表示される。ユーザがアイコン22a〜22cのいずれかをタッチすると、タッチされたアイコンの施設が目的地として設定される。
Then, when the user A speaks “Destination” and touches the
また、ユーザAが「レストラン」と発話して、表示モニタ16に表示された地図20上にタッチ操作で矩形形状23を描くと、図6(a)に示すように、矩形形状23内の中華料理店が検索され、検索された施設のアイコン24a〜24cが地図20上に表示される。一方、ユーザBが「レストラン」と発話して、表示モニタ16に表示された地図20上にタッチ操作で矩形形状23を描くと、図6(b)に示すように、矩形形状23内の日本料理店が検索され、検索された施設のアイコン25a〜25cが地図20上に表示される。施設アイコンボタンを押圧すると目的地設定処理が実行される。
Further, when the user A speaks “restaurant” and draws the
以上の実施の形態によるナビゲーション装置1は次のような作用効果を奏する。
(1)ナビゲーション装置1は、マイク113により音声が入力されると、その音声から発話者であるユーザを特定すると共に、その音声の語意を認識する。また、表示モニタ16の表示画面上に設けられたタッチパネル19におけるユーザのタッチ操作を認識する。そして、特定されたユーザと、認識された語意と、認識されたタッチ操作とに基づいて、ナビゲーション装置1の機能に関する処理を実行するようにした。これにより、ナビゲーション装置1は、ユーザごとに適切な処理を実行することができる。
The navigation device 1 according to the above embodiment has the following operational effects.
(1) When the voice is input from the
(2)ナビゲーション装置1は、ユーザAを特定し、目的地という語意を認識し、1点のタッチを認識した場合、そのタッチ位置21に目的地を設定する。一方、ユーザBを特定し、目的地という語意を認識し、1点のタッチを認識した場合、そのタッチ位置21を中心としてレジャー施設の周辺検索を行うようにした。これにより、地図上の地点を指定して目的地を設定することが多いユーザAに対しても、レジャー施設の周辺施設検索を行ってから目的地を設定することが多いユーザBに対しても、適切な処理を実行することができる。
(2) The navigation apparatus 1 identifies the user A, recognizes the word meaning of the destination, and sets the destination at the
(3)またナビゲーション装置1は、音声認識部114によって認識された語意に基づいて、タッチ操作によって指定される範囲23内の施設検索を行うことができる。この場合、音声認識部114によって認識された語意(たとえば「レストラン」)が同じであっても、ユーザAが特定されたときと、ユーザBが特定されたときとで検索する施設のジャンル(中華料理店、日本料理店)を変更するようにした。これにより、中華料理が好きなユーザAに対しても、日本料理の好きなユーザBに対しても、適切な処理を実行することができる。
(3) Moreover, the navigation apparatus 1 can perform the facility search within the
(4)音声認識部114は、ナビゲーション機能に関してユーザが発話する一つの音声に基づいて、ユーザを特定するとともに、発話した語意を認識するようにした。これにより、音声を認識する装置の他にユーザを特定する装置を別途設けなくてもよい。
(4) The
以上の実施の形態のナビゲーション装置1を次のように変形することができる。
(1)前述のようにナビゲーション装置1は、ユーザAを特定し、目的地という語意を認識し、1点のタッチを認識した場合、タッチ位置に目的地を設定する一方で、ユーザBを特定し、目的地という語意を認識し、1点のタッチを認識した場合、タッチ位置を中心としてレジャー施設の周辺検索を行うようにする。このとき音声認識部114で認識される語意は、目的地に関する語意であれば、「目的地」に限定されない。たとえば、「行き先」、「到着地」、「目的場所」などの語意を用いることができる。
The navigation apparatus 1 of the above embodiment can be modified as follows.
(1) As described above, the navigation device 1 identifies the user A, recognizes the word meaning of the destination, and identifies the user B while setting the destination at the touch position when the touch of one point is recognized. When the word “destination” is recognized and a touch of one point is recognized, the vicinity of the leisure facility is searched around the touch position. At this time, the word meaning recognized by the
(2)前述のようにナビゲーション装置1は、音声認識部114によって認識された語意が同じ「レストラン」であっても、ユーザAが特定されたときは中華料理店を検索し、ユーザBが特定されたときは日本料理店を検索することで、検索する施設のジャンルを変更する。このように、認識される語意とユーザごとに変更する検索施設のジャンルとの組合せは、「レストラン」に対する中華料理店と日本料理店とに限定されない。たとえば、「コンビニ」という語意に対してユーザごとに違う種類のコンビニエンスストアを検索したり、「ガソリンスタンド」という語意に対してユーザごとに違う種類のガソリンスタンドを検索したりしてもよい。また、一つの語意に対してユーザごとに変更する検索施設のジャンル数は2つに限らず、3つ以上としてもよい。たとえば、「レストラン」という語意に対して、ユーザA、Bとは別のユーザCが特定されたときには、イタリア料理店を検索するようにしてよい。
(2) As described above, the navigation device 1 searches for a Chinese restaurant when the user A is specified even when the word recognition recognized by the
(3)認識されたタッチ操作によって指定される範囲内の施設検索を行う場合、音声認識部114によって認識された語意は、検索する施設のジャンルの上位概念のジャンルの語意であってもよい。たとえば、第1のユーザの場合、小学校を検索し、第2のユーザの場合、中学校を検索する場合、小学校および中学校の上位概念の語意である「学校」の語意が認識されたとき、上述の検索を行うようにしてもよい。
(3) When a facility search within the range specified by the recognized touch operation is performed, the meaning recognized by the
(4)音声入力の後にタッチ操作の有無を判定し、この判定結果によって、音声認識結果とタッチ操作とに基づく処理(音声認識&タッチ操作モード処理)と、音声認識のみによる処理(通常音声認識モード処理)を使い分けするようにした。しかしながら、メニュー画面により、予めいずれか一方の処理のみを有効化するようにしてもよい。 (4) The presence / absence of a touch operation is determined after voice input, and based on the determination result, processing based on the voice recognition result and touch operation (voice recognition & touch operation mode processing), and processing based only on voice recognition (normal voice recognition) (Mode processing) was used properly. However, only one of the processes may be validated in advance on the menu screen.
(5)また本実施の形態では、音声入力の後にタッチ操作が行われるようにしたが、これとは逆に、タッチ操作を先に行い、その後に音声入力がされるようにしてもよい。すなわち、一の地点または所定の範囲の領域を指定するユーザのタッチ操作が認識されたら、その後にマイク113によって入力された音声の語意を音声認識部114により認識し、当該認識されたタッチ操作および語意に基づいて、前述したような処理を行ってもよい。
(5) In the present embodiment, the touch operation is performed after the voice input, but conversely, the touch operation may be performed first and then the voice input may be performed. That is, when a user's touch operation for designating a single point or a predetermined range is recognized, the
(6)ユーザを特定するためのメニュー画面を設け、このメニュー画面からユーザを特定できるようにしてもよい。たとえば、ユーザ名の一覧を表示モニタに表示し、ユーザが、表示されたユーザ名の中から自分のユーザ名を選択することによって、ナビゲーション装置がユーザを特定できるようにしてもよい。 (6) A menu screen for specifying the user may be provided so that the user can be specified from the menu screen. For example, a list of user names may be displayed on the display monitor, and the user may select the user name from the displayed user names so that the navigation device can identify the user.
(7)本実施の形態では、ユーザがタッチ操作により地図上に一の地点または所定の範囲の領域を指定するようにしたが、これをいわゆるハードボタン操作により行うようにしてもよい。すなわち、ナビゲーション装置1は前述のように、入力装置18において各種のボタンスイッチやハードスイッチにより実現される操作キー(ハードボタン)を有する。ユーザは、タッチ操作の代わりに、この操作キーを用いたハードボタン操作を行うことで前述のような一地点または所定範囲の領域を地図上に指定することができるようにする。たとえば、十字キーの操作によりカーソルを地図上で移動させると共に、決定ボタンの押下操作によってカーソルの位置に対応する地点を選択することで、ユーザが所望の一地点または所定範囲の領域を地図上に指定できるようにする。なお、こうしたハードボタン操作を行うための操作キーを、ナビゲーション装置1に付属されたリモコンなどに設けてもよい。また、タッチ操作とハードボタン操作とを組み合わせて行うようにしてもよい。
(7) In the present embodiment, the user designates one point or a predetermined area on the map by a touch operation, but this may be performed by a so-called hard button operation. That is, the navigation device 1 has operation keys (hard buttons) realized by various button switches and hard switches in the
(8)ユーザが所持している携帯電話などの携帯端末装置を利用して、ナビゲーション装置がユーザを特定できるようにしてもよい。 (8) The navigation device may be able to identify the user by using a mobile terminal device such as a mobile phone possessed by the user.
実施形態と変形例の一つ、もしくは複数を組み合わせることも可能である。変形例同士をどのように組み合わせることも可能である。 It is also possible to combine one or a plurality of embodiments and modifications. It is possible to combine the modified examples in any way.
以上の説明はあくまで一例であり、発明は、上記の実施形態に何ら限定されるものではない。 The above description is merely an example, and the present invention is not limited to the above embodiment.
1 ナビゲーション装置
11 制御回路
11a タイマ
16 表示モニタ
19 タッチパネル
22a〜22c,24a〜24c,25a〜25c アイコン
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 11
Claims (4)
前記音声入力手段によって入力された音声からユーザを特定するユーザ特定手段と、
前記音声入力手段によって入力された音声の語意を認識する音声認識手段と、
前記表示モニタ上におけるユーザのタッチ操作を認識するタッチ操作認識手段と、
前記ユーザ特定手段によって特定されたユーザと、前記音声認識手段によって認識された語意と、前記タッチ操作認識手段によって認識されたタッチ操作とに基づいてナビゲーション機能に関する処理を実行する処理実行手段とを備えることを特徴とするナビゲーション装置。 Voice input means for inputting user's voice;
User specifying means for specifying a user from the voice input by the voice input means;
Voice recognition means for recognizing the meaning of the voice input by the voice input means;
Touch operation recognition means for recognizing a user's touch operation on the display monitor;
A process execution unit configured to execute a process related to a navigation function based on the user specified by the user specifying unit, the word meaning recognized by the voice recognition unit, and the touch operation recognized by the touch operation recognition unit; A navigation device characterized by that.
前記ユーザ特定手段と前記音声認識手段は、ナビゲーション機能に関してユーザが発話する一つの音声に基づいて、ユーザを特定するとともに、発話した語意を認識することを特徴とするナビゲーション装置。 In the navigation device according to claim 1,
The navigation apparatus characterized in that the user specifying means and the voice recognition means identify a user and recognize a spoken word based on one voice spoken by the user regarding the navigation function.
前記ユーザ特定手段は、第1のユーザと第2のユーザとを少なくとも特定し、
前記処理実行手段は、前記ユーザ特定手段が前記第1のユーザを特定し、前記音声認識手段が目的地に関する語意を認識し、前記タッチ操作認識手段が1点のタッチを認識した場合、前記タッチ操作認識手段によって認識されたタッチ位置に目的地を設定し、前記ユーザ特定手段が前記第2のユーザを特定し、前記音声認識手段が目的地に関する語意を認識し、前記タッチ操作認識手段が1点のタッチを認識した場合、前記タッチ操作認識手段によって認識されたタッチ位置を中心として所定ジャンルの施設の周辺検索を行うことを特徴とするナビゲーション装置。 The navigation device according to claim 1 or 2,
The user specifying means specifies at least a first user and a second user;
The processing execution means may be configured such that when the user specifying means specifies the first user, the speech recognition means recognizes a meaning related to a destination, and the touch operation recognition means recognizes a single touch, the touch A destination is set at the touch position recognized by the operation recognizing means, the user specifying means specifies the second user, the voice recognizing means recognizes the meaning of the destination, and the touch operation recognizing means is 1 A navigation device characterized in that, when a touch of a point is recognized, a peripheral search for a facility of a predetermined genre is performed around the touch position recognized by the touch operation recognition means.
前記ユーザ特定手段は、第1のユーザと第2のユーザとを少なくとも特定し、
前記処理実行手段は、前記音声認識手段によって認識された語意に基づいて、前記タッチ操作認識手段によって認識されたタッチ操作によって指定される範囲内の施設検索を行う場合、前記音声認識手段によって認識された語意が同じであっても、前記ユーザ特定手段によって前記第1のユーザが特定されたときと、前記ユーザ特定手段によって前記第2のユーザが特定されたときとで検索する施設のジャンルを変更することを特徴とするナビゲーション装置。 The navigation device according to any one of claims 1 to 3,
The user specifying means specifies at least a first user and a second user;
The processing execution unit is recognized by the voice recognition unit when performing facility search within a range specified by the touch operation recognized by the touch operation recognition unit based on the meaning of the word recognized by the voice recognition unit. The genre of the facility to be searched is changed when the first user is specified by the user specifying means and when the second user is specified by the user specifying means, even if the meanings are the same The navigation apparatus characterized by doing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009232285A JP2011080824A (en) | 2009-10-06 | 2009-10-06 | Navigation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009232285A JP2011080824A (en) | 2009-10-06 | 2009-10-06 | Navigation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011080824A true JP2011080824A (en) | 2011-04-21 |
Family
ID=44075019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009232285A Withdrawn JP2011080824A (en) | 2009-10-06 | 2009-10-06 | Navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011080824A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194106A1 (en) * | 2014-06-19 | 2015-12-23 | 株式会社デンソー | Destination determination device for vehicle and destination determination system for vehicle |
WO2016103465A1 (en) * | 2014-12-26 | 2016-06-30 | 三菱電機株式会社 | Speech recognition system |
-
2009
- 2009-10-06 JP JP2009232285A patent/JP2011080824A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194106A1 (en) * | 2014-06-19 | 2015-12-23 | 株式会社デンソー | Destination determination device for vehicle and destination determination system for vehicle |
JP2016004538A (en) * | 2014-06-19 | 2016-01-12 | 株式会社デンソー | Vehicle destination determination device and vehicle destination determination system |
US10048079B2 (en) | 2014-06-19 | 2018-08-14 | Denso Corporation | Destination determination device for vehicle and destination determination system for vehicle |
WO2016103465A1 (en) * | 2014-12-26 | 2016-06-30 | 三菱電機株式会社 | Speech recognition system |
JPWO2016103465A1 (en) * | 2014-12-26 | 2017-04-27 | 三菱電機株式会社 | Speech recognition system |
CN107110660A (en) * | 2014-12-26 | 2017-08-29 | 三菱电机株式会社 | Speech recognition system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4736982B2 (en) | Operation control device, program | |
JP5637131B2 (en) | Voice recognition device | |
JPWO2003078930A1 (en) | Vehicle navigation device | |
JP2007052397A (en) | Operating apparatus | |
JP2010205130A (en) | Control device | |
JP2007279637A (en) | Navigation system | |
JP4785568B2 (en) | Electronic device and operation help presentation method | |
JP4664775B2 (en) | Navigation device | |
JP5455355B2 (en) | Speech recognition apparatus and program | |
JP2011080824A (en) | Navigation device | |
JP2002281145A (en) | Telephone number input device | |
JP2008045968A (en) | On-vehicle information terminal | |
US20150192425A1 (en) | Facility search apparatus and facility search method | |
JP2007199979A (en) | Map display device and navigation device | |
JP2008024070A (en) | On-vehicle information terminal | |
JP2003005783A (en) | Navigation system and its destination input method | |
JP6987447B2 (en) | Speech recognition device | |
JPH11325945A (en) | On-vehicle navigation system | |
JP5028045B2 (en) | In-vehicle display device | |
JP2003005781A (en) | Controller with voice recognition function and program | |
JP6115202B2 (en) | Speech recognition system, method and program | |
JPH11325946A (en) | On-vehicle navigation system | |
JP2008233009A (en) | Car navigation device, and program for car navigation device | |
JP2006047192A (en) | Navigation system and method for searching circumference institution | |
JP5436337B2 (en) | Keyboard display device and keyboard display switching method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130108 |