JP2002350151A - Navigation device - Google Patents
Navigation deviceInfo
- Publication number
- JP2002350151A JP2002350151A JP2001155135A JP2001155135A JP2002350151A JP 2002350151 A JP2002350151 A JP 2002350151A JP 2001155135 A JP2001155135 A JP 2001155135A JP 2001155135 A JP2001155135 A JP 2001155135A JP 2002350151 A JP2002350151 A JP 2002350151A
- Authority
- JP
- Japan
- Prior art keywords
- input
- unit
- related information
- map
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、自動車などの交通
機関に搭載したり、ユーザが持ち歩いたりすることがで
き、ディスプレイに地図情報を表示させて、目的地まで
の経路を案内するナビゲーション装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation device which can be mounted on transportation such as a car or carried by a user, and which displays map information on a display to guide a route to a destination. .
【0002】[0002]
【従来の技術】従来、このような分野の技術としては、
特開平8−212238号公報に記載されたものが知ら
れている。特開平8−212238号公報に記載された
従来の技術は、地図情報を表示するタッチパネルに対し
て、ペンを用いてサークルで囲んで範囲指定を行なうと
共に、施設名を音声入力することにより、指定された範
囲に存在する施設をタッチパネルに表示させるものであ
る。なお、他の従来の技術には、特開2000−213
950号公報、特開2000−205873号公報、特
開平9−243394号公報、特開平8−50698号
公報などがある。2. Description of the Related Art Conventionally, techniques in such a field include:
Japanese Patent Application Laid-Open No. 8-212238 is known. The conventional technique described in Japanese Patent Application Laid-Open No. H8-212238 discloses a touch panel for displaying map information, which is designated by enclosing a circle with a pen and specifying a facility name by voice input. The facility existing in the specified area is displayed on the touch panel. Note that other conventional techniques include Japanese Patent Application Laid-Open No. 2000-213.
950, JP-A-2000-205873, JP-A-9-243394, JP-A-8-50698 and the like.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、従来の
技術は、範囲指定を行なった後に施設名を音声入力しな
ければならず、使い勝手が悪く問題であった。また、指
定された範囲に存在する施設が多数存在する場合に、全
ての施設をタッチパネルに表示させることとなり、視覚
性が悪く問題であった。さらに、小さな領域をサークル
で囲んだ場合、タッチパネルに表示された施設がどこに
あるのか探すのが大変であり、問題であった。また、ペ
ンを用いてサークルで囲む作業が煩雑で、特に交通機関
などに乗って移動しながらペン入力するのは難しく問題
であった。However, in the prior art, the facility name must be input by voice after the range is specified, which is inconvenient to use. Further, when there are many facilities existing in the designated range, all the facilities are displayed on the touch panel, and the visibility is poor. Further, when a small area is surrounded by a circle, it is difficult to find out where the facility displayed on the touch panel is located, which is a problem. In addition, the work of enclosing in a circle using a pen is complicated, and it is particularly difficult to input a pen while moving on transportation or the like.
【0004】本発明は、このような問題を解決し、マン
マシンインターフェイスに優れたナビゲーション装置を
提供することを目的とする。An object of the present invention is to solve such a problem and to provide a navigation device excellent in a man-machine interface.
【0005】[0005]
【課題を解決するための手段】本発明のナビゲーション
装置は、地図情報が記憶された地図情報記憶部と、地図
に関する関連情報が記憶された関連情報記憶部と、関連
情報の音声入力を受け付ける音声入力部と、音声入力部
で受け付けた音声を認識する音声認識部と、地図情報記
憶部に記憶された地図情報を読み出して、この地図情報
を表示させると共に、この地図上の所定の範囲指定を受
け付ける入出力処理部と、関連情報記憶部に記憶された
全関連情報の中から、入出力処理部で受け付けた範囲内
の関連情報を抽出すると共に、抽出した全関連情報の中
から、音声認識部で認識した関連情報を検索する関連情
報検索部とを備え、関連情報検索部は、音声入力部によ
る音声の受付と、入出力処理部による範囲指定の受付と
が所定の期間内にあった場合に、関連情報を検索するこ
とを特徴とする。According to the present invention, there is provided a navigation apparatus comprising: a map information storage unit in which map information is stored; a related information storage unit in which related information on a map is stored; An input unit, a voice recognition unit that recognizes the voice received by the voice input unit, and reads the map information stored in the map information storage unit, displays the map information, and specifies a predetermined range on the map. The related information within the range accepted by the input / output processing unit is extracted from all the related information stored in the related input / output processing unit and the related information storage unit, and voice recognition is performed from the extracted related information. And a related information search unit that searches for related information recognized by the unit. The related information search unit determines that reception of a voice by the voice input unit and reception of a range specified by the input / output processing unit are performed within a predetermined period. In the case of Tsu, characterized in that the search for relevant information.
【0006】ここで、関連情報検索部は、音声入力部に
よる音声の受付と、入出力処理部による範囲指定の受付
との少なくとも一方が所定の期間内に複数回あった場合
に、最後に受け付けた入力を採用することが好ましい。[0006] Here, when at least one of the reception of the voice by the voice input unit and the reception of the range designation by the input / output processing unit occurs a plurality of times within a predetermined period, the related information search unit receives the voice last. It is preferable to use the input that has been input.
【0007】また、関連情報検索部は、音声入力部によ
る音声の受付と、入出力処理部による範囲指定の受付と
の少なくとも一方が所定の期間内に複数回あった場合
に、最初に受け付けた入力を採用することが好ましい。Further, the related information search unit receives the first voice when at least one of the reception of the voice by the voice input unit and the reception of the range designation by the input / output processing unit occurs a plurality of times within a predetermined period. Preferably, an input is employed.
【0008】さらに、関連情報検索部は、入出力処理部
で範囲指定を受け付けた場合に、この範囲の内外で色彩
を変えた地図情報を入出力処理部に表示させる色彩変更
部を備えることが好ましい。Further, the related information search unit may include a color changing unit that, when the input / output processing unit receives the range designation, displays the map information whose color has been changed inside and outside the range on the input / output processing unit. preferable.
【0009】また、本発明のナビゲーション装置は、地
図情報が記憶された地図情報記憶部と、地図に関する関
連情報が記憶された関連情報記憶部と、関連情報の音声
入力を受け付ける音声入力部と、音声入力部で受け付け
た音声を認識する音声認識部と、地図情報記憶部に記憶
された地図情報を読み出して、地図を表示させると共
に、この地図上の所定の範囲指定を受け付ける入出力処
理部と、関連情報記憶部に記憶された全関連情報の中か
ら、入出力処理部で受け付けた範囲内の関連情報を抽出
すると共に、抽出した全関連情報の中から、音声認識部
で認識した関連情報を検索する関連情報検索部と、関連
情報検索部で検索した関連情報が複数存在する場合に、
これらの関連情報の一覧リストを入出力処理部に表示さ
せる一覧リスト表示部とを備えることを特徴とする。Further, the navigation device of the present invention includes a map information storage unit in which map information is stored, a related information storage unit in which related information relating to a map is stored, a voice input unit for receiving voice input of the related information, A voice recognition unit that recognizes the voice received by the voice input unit, an input / output processing unit that reads out map information stored in the map information storage unit, displays a map, and receives a predetermined range designation on the map. The related information within the range accepted by the input / output processing unit is extracted from all the related information stored in the related information storage unit, and the related information recognized by the voice recognition unit is extracted from the extracted related information. When there are a plurality of related information search units that search for
A list list display unit for displaying a list of these related information on the input / output processing unit.
【0010】ここで、一覧リスト表示部は、現在位置か
ら近い順番で一覧リストを作成し、現在位置が変わった
場合に、一覧リストを修正することが好ましい。Here, it is preferable that the list display section creates the list in an order close to the current position, and corrects the list when the current position changes.
【0011】また、一覧リスト表示部は、関連情報検索
部で検索した関連情報が存在しない場合、入出力処理部
で受け付けた範囲外の関連情報を抽出して、この関連情
報を参考情報として入出力処理部に表示させることが好
ましい。さらに、本発明のナビゲーション装置は、地図
情報が記憶された地図情報記憶部と、地図情報記憶部に
記憶された地図情報を読み出して、地図を表示させると
共に、この地図上の所定の範囲指定を受け付ける入出力
処理部と、入出力処理部で受け付けた範囲指定に基づい
て、範囲内の地図情報を入出力処理部に拡大表示させる
拡大表示部とを備えることを特徴とする。When there is no related information searched by the related information search unit, the list list display unit extracts related information outside the range accepted by the input / output processing unit and enters the related information as reference information. It is preferable to display on the output processing unit. Further, the navigation device of the present invention reads the map information stored in the map information storage unit storing the map information and the map information stored in the map information storage unit, displays the map, and specifies a predetermined range on the map. An input / output processing unit for accepting the information and an enlarged display unit for enlarging and displaying map information in the range on the input / output processing unit based on the range specification accepted by the input / output processing unit.
【0012】ここで、画面拡大命令の音声入力を受け付
ける音声入力部と、音声入力部で受け付けた音声を認識
する音声認識部とを更に備え、拡大表示部は、音声認識
部で認識した画面拡大命令に従って、地図情報を変更し
て入出力処理部に表示させることが好ましい。Here, the apparatus further includes a voice input unit for receiving a voice input of the screen enlargement command and a voice recognition unit for recognizing the voice received by the voice input unit. Preferably, the map information is changed and displayed on the input / output processing unit according to the command.
【0013】また、本発明のナビゲーション装置は、地
図情報が記憶された地図情報記憶部と、地図に関する関
連情報が記憶された関連情報記憶部と、関連情報の音声
入力を受け付ける音声入力部と、音声入力部で受け付け
た音声を認識する音声認識部と、地図情報記憶部に記憶
された地図情報を読み出して、地図を表示させると共
に、点の入力と、この点を中心とした円弧状の入力とを
受け付ける入出力処理部と、関連情報記憶部に記憶され
た全関連情報の中から、入出力処理部で受け付けた範囲
内の関連情報を抽出すると共に、抽出した全関連情報の
中から、音声認識部で認識した関連情報を検索する関連
情報検索部と、入出力処理部で受け付けた点の入力と、
この点を中心とした円弧状の入力とに基づいて、扇状の
範囲を設定する範囲設定部とを備えることを特徴とす
る。Further, the navigation device of the present invention includes a map information storage unit in which map information is stored, a related information storage unit in which related information on a map is stored, a voice input unit for receiving a voice input of the related information, A voice recognition unit for recognizing the voice received by the voice input unit, reading out the map information stored in the map information storage unit, displaying a map, inputting a point, and inputting an arc around the point. And an input / output processing unit that receives the information and, from among all the relevant information stored in the relevant information storage unit, extract the relevant information within the range received by the input / output processing unit, and from among the extracted all the relevant information, A related information search unit that searches for related information recognized by the voice recognition unit, an input of a point received by the input / output processing unit,
And a range setting unit for setting a fan-shaped range based on an arc-shaped input centered on this point.
【0014】さらに、本発明のナビゲーション装置は、
地図情報が記憶された地図情報記憶部と、地図に関する
関連情報が記憶された関連情報記憶部と、関連情報の音
声入力を受け付ける音声入力部と、音声入力部で受け付
けた音声を認識する音声認識部と、地図情報記憶部に記
憶された地図情報を読み出して、地図を表示させると共
に、この地図上の検索開始地点の入力を受け付ける入出
力処理部と、関連情報記憶部に記憶された全関連情報の
中から、音声認識部で認識した関連情報を検索する関連
情報検索部とを備え、関連情報検索部は、入出力処理部
で受け付けた検索開始地点を中心にして、検索範囲を徐
々に広げることを特徴とする。Further, the navigation device according to the present invention comprises:
A map information storage unit in which map information is stored, a related information storage unit in which related information relating to a map is stored, a voice input unit for receiving a voice input of the relevant information, and a voice recognition for recognizing the voice received by the voice input unit Unit, an input / output processing unit that reads out the map information stored in the map information storage unit, displays the map, and receives an input of a search start point on the map, and all related information stored in the related information storage unit. A related information search unit for searching for related information recognized by the voice recognition unit from the information, and the related information search unit gradually increases the search range around the search start point received by the input / output processing unit. It is characterized by spreading.
【0015】ここで、地図情報記憶部には、3D地図情
報が記憶されており、入出力処理部では、地図情報記憶
部に記憶された3D地図情報を読み出して、地図を3次
元で表示させることが好ましい。Here, the map information storage section stores 3D map information, and the input / output processing section reads out the 3D map information stored in the map information storage section and displays the map in three dimensions. Is preferred.
【0016】[0016]
【発明の実施の形態】以下、本発明に係るナビゲーショ
ン装置の好適な実施の形態について添付図面を参照して
説明する。 実施の形態1.図1は、実施の形態1に係るナビゲーシ
ョン装置の構成を示すブロック図である。同図より、1
は地図情報が記憶された地図情報記憶部、2は施設情報
(関連情報)が記憶された施設情報記憶部(関連情報記
憶部)、3は施設情報の音声入力を受け付ける音声入力
部、4は地図情報を表示させると共に、ユーザの入力を
受け付ける入出力処理部、5は複数のGPS衛星からの
位置測定用の信号をGPSアンテナ(図示せず)で受信
して、現在位置の座標を検出する現在位置検出部、20
はトークバック音やフィードバック音を出力する音声出
力部、6は地図情報記憶部1、施設情報記憶部2、音声
入力部3、入出力処理部4、現在位置検出部5および音
声出力部20を制御する制御部である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of a navigation device according to the present invention will be described below with reference to the accompanying drawings. Embodiment 1 FIG. FIG. 1 is a block diagram showing a configuration of the navigation device according to the first embodiment. From the figure, 1
Is a map information storage unit that stores map information, 2 is a facility information storage unit (related information storage unit) that stores facility information (related information), 3 is a voice input unit that receives voice input of facility information, and 4 is An input / output processing unit for displaying map information and receiving user input receives signals for position measurement from a plurality of GPS satellites via a GPS antenna (not shown), and detects the coordinates of the current position. Current position detector, 20
Is an audio output unit for outputting a talkback sound or a feedback sound, and 6 is a map information storage unit 1, facility information storage unit 2, audio input unit 3, input / output processing unit 4, current position detection unit 5, and audio output unit 20. It is a control unit for controlling.
【0017】ここで、入出力処理部4は、地図情報記憶
部1に記憶された地図情報を読み出して、この地図情報
を表示させるディスプレイ4aと、ディスプレイ4aに
表示された地図上の所定の範囲指定を受け付けるタッチ
パネル4bとを備えている。また、制御部6は、音声入
力部3で受け付けた音声を認識する音声認識部7と、施
設情報記憶部2に記憶された全施設情報の中から、入出
力処理部4で受け付けた範囲内の施設情報を抽出すると
共に、抽出した全施設情報の中から、音声認識部6で認
識した施設情報を検索する施設情報検索部(関連情報検
索部)8とを備えている。Here, the input / output processing section 4 reads out the map information stored in the map information storage section 1 and displays the map information on the display 4a and a predetermined range on the map displayed on the display 4a. And a touch panel 4b for receiving designation. Further, the control unit 6 includes a voice recognition unit 7 for recognizing the voice received by the voice input unit 3 and a range within the range received by the input / output processing unit 4 from all facility information stored in the facility information storage unit 2. And a facility information search unit (related information search unit) 8 for searching for the facility information recognized by the voice recognition unit 6 from all the extracted facility information.
【0018】次に、実施の形態1に係るナビゲーション
装置の動作について、図2のフローチャートおよび図
3,4の表示例を用いて説明する。まず、制御部6で
は、現在位置検出部5で現在位置の座標が検出される
と、この座標を含んだ地図情報を地図情報記憶部1から
読み出して、この地図情報に現在位置の情報を付加した
画像をディスプレイ4aに表示させる(ステップ10
0:図3(a)参照)。Next, the operation of the navigation apparatus according to the first embodiment will be described with reference to the flowchart of FIG. 2 and display examples of FIGS. First, when the current position detecting unit 5 detects the coordinates of the current position, the control unit 6 reads out the map information including the coordinates from the map information storage unit 1 and adds the current position information to the map information. The displayed image is displayed on the display 4a (step 10).
0: see FIG. 3 (a)).
【0019】ユーザが希望する施設(以下、ユーザ希望
施設という)を検索したい場合、タッチパネル4bを用
いて、検索を希望する範囲(以下、検索希望範囲とい
う)を指やペン等でなぞることにより、このタッチ入力
が受け付けられる(ステップ101)。ここで、ユーザ
がタッチパネル4bをなぞっている間は、音声出力部2
0より、例えば「ピップププププ」といったフィードバ
ック音を出力する。このフィードバック音によって、音
声入力の受け付け状態であることをユーザが判別し易く
なる。また、フィードバック音以外にも、例えばナビゲ
ーション装置自体(或いはハンドルなどのユーザが保持
し得る器具)の振動であってもよい。When a user wants to search for a desired facility (hereinafter referred to as a user desired facility), the user touches the touch panel 4b to trace a desired range (hereinafter referred to as a desired search range) with a finger or a pen. This touch input is received (step 101). Here, while the user is tracing the touch panel 4b, the audio output unit 2
From 0, a feedback sound such as "pip-p-p-p-p" is output. The feedback sound makes it easier for the user to determine that the voice input is being accepted. In addition to the feedback sound, vibration of the navigation device itself (or a device such as a steering wheel that can be held by the user) may be used.
【0020】そして、ユーザが指等でなぞった軌跡は、
地図情報に重畳してディスプレイ4aに表示される(ス
テップ102:図3(b)参照)。また、ステップ10
1の入力処理に前後して、ユーザ希望施設のキーワード
(例えば、「銀行」)を音声入力部3に向かって発話す
ることにより、音声識別部7で発話内容が認識される
(ステップ103)。ここで、音声入力部3では、「A
銀行」「A銀行b支店」「近くのA銀行」などを、ユー
ザ希望施設のキーワードとして受け付けるものとする。The trajectory traced by the user with a finger or the like is as follows:
The information is superimposed on the map information and displayed on the display 4a (step 102: see FIG. 3B). Step 10
Before or after the input process 1, the user speaks a keyword (for example, “bank”) of the facility desired by the user toward the voice input unit 3 so that the voice identification unit 7 recognizes the content of the utterance (step 103). Here, in the voice input unit 3, "A
Banks, "A bank b branch", "Near A bank" and the like are to be accepted as keywords of the facility desired by the user.
【0021】ステップ101による検索希望範囲のタッ
チ入力と、ステップ103によるユーザ希望施設の音声
入力とが所定の期間内に行われた場合(ステップ10
4)、施設情報検索部8は、施設情報記憶部2を検索し
て、施設のキーワードに対応する施設情報を抽出する
(ステップ105)。そして、対応する施設情報が存在
する場合(ステップ106)、検索希望範囲内にこれら
の情報があるか判定し(ステップ107)、検索希望範
囲内の施設の位置情報をディスプレイ4aに表示する
(ステップ108:図4(a)参照)。この際、音声出
力部20から「銀行を表示します」等のトークバックを
行う。また、ステップ106で施設情報が存在しなかっ
た場合、或いは、ステップ107で施設情報が検索希望
範囲外の場合、「指定の範囲内に銀行はありませんでし
た。」などのメッセージをディスプレイ4aに表示する
(ステップ109:図4(b)参照)。When the touch input of the desired search range in step 101 and the voice input of the facility desired by the user in step 103 are performed within a predetermined period (step 10).
4) The facility information search unit 8 searches the facility information storage unit 2 and extracts facility information corresponding to the keyword of the facility (step 105). If the corresponding facility information exists (step 106), it is determined whether or not such information exists within the desired search range (step 107), and the position information of the facility within the desired search range is displayed on the display 4a (step 106). 108: see FIG. 4 (a)). At this time, the voice output unit 20 performs a talkback such as “display a bank”. If the facility information does not exist in step 106, or if the facility information is out of the desired search range in step 107, a message such as "There was no bank within the specified range" is displayed on the display 4a. (Step 109: see FIG. 4B).
【0022】ステップ103によるユーザ希望施設の音
声入力の有無は、ステップ101による検索希望範囲の
タッチ入力を基準として判断する。即ち、図5に示すよ
うに、検索希望範囲をタッチ入力した期間に、前後2秒
間を加えた期間を発話受付期間として、この発話受付期
間中にユーザ希望施設のキーワードが発話された場合
に、音声入力があったものと判断する。なお、発話受付
期間を設定する際に加える期間は、前後2秒間に限定さ
れることはなく、例えば、前後3秒間、前1秒間に後2
秒間、前2秒間に後前1秒間など所定の期間でよい。The presence or absence of voice input at the facility desired by the user in step 103 is determined based on the touch input in the desired search range in step 101. That is, as shown in FIG. 5, when a keyword is uttered during the utterance reception period, a period obtained by adding two seconds before and after the period in which the search desired range is touched is set as the utterance reception period. It is determined that a voice input has been made. Note that the period added when setting the utterance reception period is not limited to two seconds before and after, for example, three seconds before and after, one second before and two seconds after.
A predetermined period such as seconds, 2 seconds before, 1 second before, etc. may be used.
【0023】ここで、タッチ入力した期間とは、ユーザ
が指等でタッチパネル4bをプレスしてから、ユーザが
指等を移動させて検索希望範囲をなぞり、移動を停止さ
せた後に操作が確定するまでの期間をいう。また、発話
受付期間の開始時又は終了時に続いている発話は、音声
入力の対象とする。さらに、発話受付期間中に発話が複
数回あった場合には、最後の発話を音声入力の対象とす
る。このため、発話内容に間違いがあった場合には、タ
ッチパネル4bをプレスした状態で、発話し直すことに
よって、間違いのあった発話を自動的にキャンセルで
き、タッチ入力をやり直すことなしに、正しい音声入力
を行うことができる。The term "touch input period" refers to a period in which the user presses the touch panel 4b with a finger or the like, moves the finger or the like, traces the desired search range, and stops the movement, and then determines the operation. The period up to. Further, the utterance continuing at the start or end of the utterance reception period is a target of voice input. Further, when there is a plurality of utterances during the utterance reception period, the last utterance is set as a target of voice input. For this reason, when there is an error in the utterance content, the utterance can be automatically canceled by pressing the touch panel 4b again and re-uttering, so that the correct utterance can be obtained without performing the touch input again. You can make input.
【0024】なお、発話受付期間中に発話が複数回あっ
た場合に、最初の発話を音声入力の対象としてもよい。
ユーザが操作に慣れた場合には、発話を間違えることが
少なくなるので、この場合には、最初の発話を音声入力
の対象とすることにより、入力内容が早期に確定し、次
の処理に迅速に移行できる。その結果、処理速度が向上
する。さらに、発話受付期間中に発話が複数回あった場
合に、最初の発話と最後の発話のいずれを音声入力の対
象とするか、スイッチ等を用いてユーザが手動で切り替
えられるようにしてもよい。When a plurality of utterances are made during the utterance reception period, the first utterance may be used as a speech input target.
If the user is accustomed to the operation, the utterance is less likely to be mistaken. In this case, the first utterance is targeted for voice input, so that the input content is determined early and the next process can be promptly performed. Can be transferred to As a result, the processing speed is improved. Further, when a plurality of utterances occur during the utterance reception period, the user may manually switch between the first utterance and the last utterance by using a switch or the like, as a target of voice input. .
【0025】また、図6に示すように、タッチ入力Aと
発話aとが既に終了している場合であれば、たとえ発話
受付期間中であっても、次のタッチ入力Bは受け付けら
れる。次のタッチ入力Bが受け付けられた場合には、タ
ッチ入力Bによるプレス以後の発話bのみが、タッチ入
力Bと関連付けられ複合処理される。しかし、プレス以
前の発話cであった場合には、発話cは、タッチ入力B
ではなくタッチ入力Aと関連付けて複合処理される。一
方、発話dが終わるまではタッチ入力Aとの複合処理が
終了しないため、例えば、発話受付期間の終了時から発
話dが続いている場合、この発話が終了する前に、行わ
れたタッチ入力Bはキャンセルされる。As shown in FIG. 6, if the touch input A and the utterance a have already ended, the next touch input B is received even during the utterance reception period. When the next touch input B is received, only the utterance b after the press by the touch input B is associated with the touch input B and subjected to the compound processing. However, if the utterance c was before the press, the utterance c
Instead, the composite processing is performed in association with the touch input A. On the other hand, since the composite processing with the touch input A does not end until the utterance d ends, for example, if the utterance d continues from the end of the utterance reception period, the touch input performed before the utterance ends B is canceled.
【0026】以上説明したように、ステップ103によ
るユーザ希望施設の音声入力は発話受付期間中に行えば
よく、たとえ、ステップ101による検索希望範囲のタ
ッチ入力前であっても、音声入力は受け付けられる。こ
のため、入力順番を意識することなしに、複数方式の入
力を行うことができるので、ユーザの使い勝手が向上す
る。また、発話受付期間は、検索希望範囲のタッチ入力
を基準に定められるため、音声入力を開始する際にユー
ザが特別な操作(例えば、スイッチを押下するなど)を
行う必要がなく、最適なユーザインターフェースが提供
できる。As described above, the voice input of the facility desired by the user in step 103 may be performed during the utterance reception period. Even before the touch input of the desired search range in step 101, the voice input is received. . For this reason, the input can be performed in a plurality of modes without being aware of the input order, and the usability of the user is improved. Further, since the utterance acceptance period is determined based on the touch input in the desired search range, there is no need for the user to perform a special operation (for example, pressing a switch, etc.) when starting the voice input. Interface can be provided.
【0027】実施の形態2.次に、実施の形態2に係る
ナビゲーション装置を説明する。図7は、実施の形態2
のナビゲーション装置を示すブロック図である。この実
施の形態2が図1に示す実施の形態1と異なるのは、タ
ッチパネル4bで範囲指定を受け付けた場合に、この範
囲の内外で色彩を変えた地図情報をディスプレイ4aに
表示させる色彩変更部9を制御部6が備えている点であ
る。その他の構成については実施の形態1と同一又は同
等である。なお、実施の形態1と同一又は同等な構成部
分については同一符号を付し、その説明は省略する。Embodiment 2 FIG. Next, a navigation device according to a second embodiment will be described. FIG. 7 shows the second embodiment.
1 is a block diagram showing a navigation device of FIG. The second embodiment is different from the first embodiment shown in FIG. 1 in that, when a range is specified on the touch panel 4b, a color changing unit that displays on the display 4a map information whose color has been changed inside and outside the range. 9 is provided in the control unit 6. Other configurations are the same as or equivalent to the first embodiment. The same or equivalent components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
【0028】実施の形態2に係るナビゲーション装置の
動作を図8に示す。図8のフローチャートは、図2のフ
ローチャートとほぼ同じであるが、ステップ102の処
理の後に、ステップ110の処理を行う点が異なる。即
ち、図9(a)の表示例に示すように、ステップ102
の処理によって軌跡が重畳された地図情報がディスプレ
イに表示される。次に、色彩変更部9では、軌跡によっ
て囲まれた検索希望範囲の内外で色彩を変化させた地図
情報をディスプレイ4bに表示する(ステップ11
0)。具体的には、図9(b)に示すように、検索希望
範囲の内側を明るくしてもよく、図9(c)に示すよう
に、検索希望範囲の外側を暗くしてもよい。さらに、図
9(d)に示すように、検索希望範囲の内側を明るくす
ると共に、検索希望範囲の外側を暗くしてもよい。FIG. 8 shows the operation of the navigation device according to the second embodiment. The flowchart of FIG. 8 is almost the same as the flowchart of FIG. 2, except that the processing of step 110 is performed after the processing of step 102. That is, as shown in the display example of FIG.
The map information on which the locus is superimposed is displayed on the display by the processing of. Next, the color changing section 9 displays on the display 4b map information in which the color has been changed inside and outside the desired search range surrounded by the locus (step 11).
0). Specifically, as shown in FIG. 9B, the inside of the desired search range may be brightened, and as shown in FIG. 9C, the outside of the desired search range may be darkened. Further, as shown in FIG. 9D, the inside of the desired search range may be brightened while the outside of the desired search range may be darkened.
【0029】また、図9(e)に示すように、検索希望
範囲の内側を明るくすると共に、検索希望範囲の外側を
暗くし、更に、検索希望範囲の外側における一定の距離
以内の領域(以下、中間領域という)を中間の明るさで
表示してもよい。この場合には、検索希望範囲の内側に
ユーザ希望施設が存在せず、且つ、中間領域にユーザ希
望施設が存在する場合には、中間領域のユーザ希望施設
を「代案」としてディスプレイ4aに表示させてもよ
い。このように、検索希望範囲の近傍の情報が「代案」
として表示されるので、たとえ検索希望範囲を狭めに設
定した場合でも、検索希望範囲の設定をやり直すことな
しに、必要な情報を確実に検索することができる。な
お、中間領域については、徐々に、若しくは段階的に変
化する明るさを用い、検索希望範囲とその周辺との関連
性を表現してもよい。As shown in FIG. 9E, the inside of the desired search range is brightened, the outside of the desired search range is darkened, and an area within a predetermined distance outside the desired search range (hereinafter, referred to as "area"). , An intermediate area) may be displayed at an intermediate brightness. In this case, when the user desired facility does not exist inside the search desired range and the user desired facility exists in the intermediate area, the user desired facility in the intermediate area is displayed on the display 4a as “alternative”. You may. Thus, the information near the desired search range is “alternative”
Therefore, even if the desired search range is set narrower, necessary information can be reliably searched without re-setting the desired search range. For the intermediate region, the relevance between the desired search range and its surroundings may be expressed using brightness that changes gradually or stepwise.
【0030】以上説明したように、検索希望範囲の内外
で色彩を変化させることにより、ユーザは検索希望範囲
の内外を明確に判別することができ、視覚性が向上す
る。特に、自動車等の交通機関で移動する場合には、デ
ィスプレイ4bの表示を熟視することは困難であるが、
色彩変更部9の処理によって検索希望範囲の内外で色彩
を変化させることにより、ディスプレイ4bの表示を短
時間見るだけで、容易に検索希望範囲の内外を判別する
ことができる。As described above, by changing the color inside and outside the desired search range, the user can clearly determine the inside and outside of the desired search range, and the visibility is improved. In particular, when traveling by transportation such as a car, it is difficult to peruse the display on the display 4b,
By changing the color inside and outside the desired search range by the processing of the color changing unit 9, it is possible to easily determine the inside and outside of the desired search range only by watching the display on the display 4b for a short time.
【0031】実施の形態3.次に、実施の形態3に係る
ナビゲーション装置を説明する。図10は、実施の形態
3のナビゲーション装置を示すブロック図である。この
実施の形態3が図1に示す実施の形態1と異なるのは、
施設情報検索部8で検索した施設情報が複数存在する場
合に、これらの施設情報の一覧リストをディスプレイ4
aに表示させる一覧リスト表示部10を制御部6が備え
ている点である。その他の構成については実施の形態1
と同一又は同等である。なお、実施の形態1と同一又は
同等な構成部分については同一符号を付し、その説明は
省略する。Embodiment 3 Next, a navigation device according to a third embodiment will be described. FIG. 10 is a block diagram illustrating a navigation device according to the third embodiment. The difference between the third embodiment and the first embodiment shown in FIG.
When a plurality of facility information searched by the facility information search unit 8 exists, a list of the facility information is displayed on the display 4.
The control unit 6 is provided with a list display unit 10 to be displayed on a. Embodiment 1 for other configurations
Is the same as or equivalent to The same or equivalent components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
【0032】実施の形態3に係るナビゲーション装置の
動作を図11に示す。図11のフローチャートは、図2
のフローチャートと、ステップ100〜ステップ107
の処理が共通するが、ステップ108,109の処理の
代わりに、ステップ111〜116の処理を行う点が異
なる。ステップ111〜116の処理の内容を以下に説
明する。まず、ステップ107で検索希望範囲内に施設
情報があると判定された場合、更に施設情報が複数件あ
るか判定する(ステップ111)。そして、施設情報が
複数件ある場合、一覧リスト表示部10は、現在位置検
出部5から現在位置の座標を検出して、現在位置に近い
施設から順番に並べた一覧リストをディスプレイ4aに
表示する(ステップ112:図12(a)参照)。FIG. 11 shows the operation of the navigation device according to the third embodiment. The flowchart of FIG.
And steps 100 to 107
Are common, but differ in that the processes of steps 111 to 116 are performed instead of the processes of steps 108 and 109. The contents of the processing of steps 111 to 116 will be described below. First, when it is determined in step 107 that there is facility information within the desired search range, it is further determined whether there are a plurality of pieces of facility information (step 111). When there are a plurality of pieces of facility information, the list list display unit 10 detects the coordinates of the current position from the current position detection unit 5, and displays a list list arranged in order from the facility closest to the current position on the display 4a. (Step 112: see FIG. 12A).
【0033】なお、一覧リストに全件の施設名を表示で
きない場合には、上位数件を表示すると共に、スクロー
ルで下位の施設名も表示できるものとする。また、一覧
リストに表示された施設の位置情報もディスプレイ4a
に表示する。ユーザがタッチパネル4bを操作して、こ
れらのリストの中から所定の施設が選択されると(ステ
ップ113)、制御部6は現在位置からこの施設までの
案内ルートを検索して、案内リストをディスプレイ4a
に表示する(ステップ114:図12(b)参照)。When not all facility names can be displayed in the list, it is assumed that the top several cases can be displayed and the lower facility names can be displayed by scrolling. In addition, the position information of the facilities displayed in the list is also displayed on the display 4a.
To be displayed. When the user operates the touch panel 4b to select a predetermined facility from these lists (step 113), the control unit 6 searches for a guide route from the current position to this facility, and displays the guide list. 4a
(Step 114: see FIG. 12B).
【0034】ステップ113で所定の施設が選択されな
かった場合、処理をステップ112に戻し、所定の施設
が選択されるまで、一覧リストおよび施設の位置情報を
ディスプレイ4aに再表示する。ここで、現在位置が移
動している場合には、新たな現在位置の座標を現在位置
検出部5で検出し、新たな現在位置に基づいた一覧リス
トを一覧リスト表示部10で作成して、ディスプレイ4
aに表示する。同様に、新しい一覧リストの施設の位置
情報をディスプレイ4aに表示する(図13参照)。If the predetermined facility is not selected in step 113, the process returns to step 112, and the list and facility location information are redisplayed on the display 4a until the predetermined facility is selected. Here, when the current position is moving, the coordinates of the new current position are detected by the current position detection unit 5, and a list based on the new current position is created by the list display unit 10, Display 4
Display in a. Similarly, the location information of the facility in the new list is displayed on the display 4a (see FIG. 13).
【0035】また、ステップ106で施設情報が存在し
なかった場合、「この近辺で銀行はありませんでし
た。」等のメッセージをディスプレイ4aに表示して、
処理を終了する(ステップ115)。さらに、ステップ
107で検索希望範囲内に施設情報がなかった場合、
「検索希望範囲内に銀行はありませんでした。周辺の候
補を表示します。」等のメッセージと、検索希望範囲外
の施設の位置情報をディスプレイ4aに表示する(ステ
ップ116)。さらにまた、ステップ111で施設情報
が1件しかなかった場合、ステップ114に処理を移
し、現在位置からこの施設までの案内ルートをディスプ
レイ4aに表示する。If the facility information does not exist in step 106, a message such as "There was no bank near here" is displayed on the display 4a.
The process ends (step 115). Further, if there is no facility information within the desired search range in step 107,
A message such as "There was no bank within the desired search range. Nearby candidates are displayed." And the location information of the facilities outside the desired search range are displayed on the display 4a (step 116). Furthermore, if there is only one facility information in step 111, the process proceeds to step 114, and a guidance route from the current position to this facility is displayed on the display 4a.
【0036】以上説明したように、検索希望範囲内にユ
ーザ希望施設が複数存在する場合、現在位置に近い順番
でこれらの施設の名称が一覧表示されるので、ユーザは
どの施設が一番近いか容易に判断することができる。ま
た、ユーザ希望施設が多数ある場合でも、現在位置に近
い上位数件の施設に絞り込まれて表示されるので、ユー
ザが意図する施設が探し易くなる。As described above, when there are a plurality of facilities desired by the user in the desired search range, the names of these facilities are displayed in a list in an order close to the current position. It can be easily determined. Further, even when there are a large number of facilities desired by the user, only the top several facilities close to the current position are narrowed down and displayed, so that the facility intended by the user can be easily searched.
【0037】また、検索希望範囲内にユーザ希望施設が
存在しない場合には、検索希望範囲外のユーザ希望施設
を代案として表示させることができるので、ユーザが検
索希望範囲を広げて再検索するといった処理が不要とな
り、使い勝手が向上する。さらに、ユーザが自動車等の
交通機関を利用して、移動しているような場合は、検索
を開始した時点とユーザが意思決定した時点で状況が変
わってくるが、ユーザの移動に合わせて一覧リストの内
容が更新されるので、最新の情報に基づいてユーザは意
思決定することができ、適切な情報をユーザは得ること
ができる。If there is no user desired facility within the desired search range, a desired user facility outside the desired search range can be displayed as an alternative, so that the user can expand the desired search range and search again. Processing becomes unnecessary, and usability is improved. Further, if the user is traveling by using transportation such as a car, the situation changes when the search is started and when the user makes a decision, but the list changes according to the user's movement. Since the contents of the list are updated, the user can make a decision based on the latest information, and the user can obtain appropriate information.
【0038】実施の形態4.次に、実施の形態4に係る
ナビゲーション装置を説明する。図14は、実施の形態
4のナビゲーション装置を示すブロック図である。この
実施の形態4が図1に示す実施の形態1と異なるのは、
タッチパネル4bで受け付けた範囲指定に基づいて、範
囲内の地図情報をディスプレイ4aに拡大表示させる拡
大表示部11を制御部6が備えている点である。その他
の構成については実施の形態1と同一又は同等である。
なお、実施の形態1と同一又は同等な構成部分について
は同一符号を付し、その説明は省略する。Embodiment 4 FIG. Next, a navigation device according to a fourth embodiment will be described. FIG. 14 is a block diagram illustrating a navigation device according to the fourth embodiment. The fourth embodiment is different from the first embodiment shown in FIG.
The control unit 6 is provided with an enlarged display unit 11 for enlarging and displaying map information within the range on the display 4a based on the range specification received on the touch panel 4b. Other configurations are the same as or equivalent to the first embodiment.
The same or equivalent components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
【0039】実施の形態4に係るナビゲーション装置の
動作を図15に示す。図15のフローチャートは、図2
のフローチャートとほぼ同じであるが、ステップ102
の処理の後に、ステップ117の処理を行う点が異な
る。即ち、図16(a)の表示例に示すように、ステッ
プ102の処理によって軌跡が重畳された地図情報がデ
ィスプレイに表示される。次に、拡大表示部11では、
図16(b)の表示例に示すように、軌跡によって囲ま
れた検索希望範囲を拡大させて、ディスプレイ4bに表
示する(ステップ117)。FIG. 15 shows the operation of the navigation device according to the fourth embodiment. The flowchart of FIG.
Is almost the same as the flowchart of FIG.
The difference is that the processing of step 117 is performed after the processing of. That is, as shown in the display example of FIG. 16A, the map information on which the trajectory is superimposed by the processing of step 102 is displayed on the display. Next, in the enlarged display section 11,
As shown in the display example of FIG. 16B, the desired search range surrounded by the trajectory is enlarged and displayed on the display 4b (step 117).
【0040】ステップ117の処理は、ユーザによる検
索希望範囲の設定をトリガーにして、自動的に検索希望
範囲を拡大させてもよい。また、ユーザによる検索希望
範囲の設定が行われた後に、音声入力やタッチ入力等で
画面拡大命令が入力されるのを待って、この画面拡大命
令に基づいて、検索希望範囲を拡大させてもよい。具体
的には、ユーザによる検索希望範囲の設定が行われた後
に、「拡大」「大きく」「アップ」などの画面拡大命令
が発話された場合、音声入力部3では画面拡大命令の音
声入力を受け付ける。音声入力部3で受け付けた音声
は、音声認識部7に与えられ、この音声の内容が認識さ
れる。そして、音声認識部7での認識結果は拡大表示部
11に与えられ、拡大表示部11では、音声認識部7で
認識した画面拡大命令に従って、地図情報を構成するベ
クトルデータを拡大させてディスプレイ4bに表示させ
る。また、縮尺の異なる地図情報を地図情報記憶部1か
ら読み出して、この地図情報に置き換えて、ディスプレ
イ4bに表示させてもよい。In the process of step 117, the setting of the desired search range by the user may be triggered to automatically expand the desired search range. Further, after the user sets the desired search range, the user may wait for a screen enlargement command to be input by voice input, touch input, or the like, and expand the desired search range based on the screen enlargement command. Good. More specifically, if a screen enlargement command such as “enlarge”, “large”, or “up” is uttered after the user sets the desired search range, the voice input unit 3 inputs a voice of the screen enlargement command. Accept. The voice received by the voice input unit 3 is provided to a voice recognition unit 7, and the content of the voice is recognized. The result of the recognition by the voice recognition unit 7 is given to the enlarged display unit 11, and the enlarged display unit 11 enlarges the vector data constituting the map information according to the screen enlargement command recognized by the voice recognition unit 7, To be displayed. Alternatively, map information having different scales may be read from the map information storage unit 1, replaced with the map information, and displayed on the display 4b.
【0041】以上説明したように、検索希望範囲がディ
スプレイ4bに拡大表示されるので、検索希望範囲内の
施設を探すのが容易となる。特に、検索希望範囲として
指定された範囲が狭い場合や、検索希望範囲内に多数の
施設が存在する場合に、効果的である。As described above, the desired search range is enlarged and displayed on the display 4b, so that it is easy to search for facilities within the desired search range. This is particularly effective when the range specified as the desired search range is narrow or when there are many facilities within the desired search range.
【0042】実施の形態5.次に、実施の形態5に係る
ナビゲーション装置を説明する。図17は、実施の形態
5のナビゲーション装置を示すブロック図である。この
実施の形態5が図1に示す実施の形態1と異なるのは、
タッチパネル4bで受け付けた点の入力と、この点を中
心とした円弧状の入力とに基づいて、扇状の検索希望範
囲を設定する範囲設定部12を制御部6が備えている点
である。その他の構成については実施の形態1と同一又
は同等である。なお、実施の形態1と同一又は同等な構
成部分については同一符号を付し、その説明は省略す
る。Embodiment 5 FIG. Next, a navigation device according to a fifth embodiment will be described. FIG. 17 is a block diagram illustrating a navigation device according to the fifth embodiment. The fifth embodiment differs from the first embodiment shown in FIG.
The control unit 6 includes a range setting unit 12 for setting a fan-like search desired range based on an input of a point received on the touch panel 4b and an arc-shaped input centered on the point. Other configurations are the same as or equivalent to the first embodiment. The same or equivalent components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
【0043】図18(a)に示すように、ユーザがタッ
チパネル4bに対して、親指で点の入力を行うと共に、
親指を軸に人指し指で円弧状の入力を行った場合、これ
らの入力データは、範囲設定部12に与えられる。範囲
設定部12では、これらの入力データに基づいて、扇状
の検索希望範囲を設定し、図18(b)に示すように、
ディスプレイ4aに表示する。このように、僅かな入力
操作で、検索希望範囲を設定することができるので、例
えば、自動車等の交通機関で移動している最中に操作す
る場合でも、信号待ちなどの僅かな時間を利用して、希
望施設の検索が行え、操作性が向上する。As shown in FIG. 18A, the user inputs points on the touch panel 4b with the thumb,
When an arc-shaped input is performed with the index finger around the thumb, these input data are provided to the range setting unit 12. The range setting unit 12 sets a fan-like search desired range based on these input data, and as shown in FIG.
It is displayed on the display 4a. As described above, the desired search range can be set by a small input operation. For example, even when the operation is performed while moving by a transportation such as a car, a short time such as waiting for a traffic light can be used. Then, the desired facility can be searched, and the operability is improved.
【0044】実施の形態6.次に、実施の形態6に係る
ナビゲーション装置を説明する。図19は、実施の形態
6のナビゲーション装置を示すブロック図である。この
実施の形態6が図1に示す実施の形態1と異なるのは、
施設情報検索部8の代わりに、タッチパネル4bで受け
付けた検索開始地点を中心にして検索範囲を徐々に広げ
る施設情報検索部13と、地図情報をディスプレイ4a
に拡大表示させる拡大表示部11とが制御部6に設けら
れている点である。その他の構成については実施の形態
1と同一又は同等である。なお、実施の形態1と同一又
は同等な構成部分については同一符号を付し、その説明
は省略する。Embodiment 6 FIG. Next, a navigation device according to Embodiment 6 will be described. FIG. 19 is a block diagram showing a navigation device according to the sixth embodiment. The difference between the sixth embodiment and the first embodiment shown in FIG.
Instead of the facility information search unit 8, a facility information search unit 13 that gradually widens the search range around the search start point received on the touch panel 4b, and the map information on the display 4a
And an enlarged display section 11 for enlarging the display. Other configurations are the same as or equivalent to the first embodiment. The same or equivalent components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
【0045】実施の形態6に係るナビゲーション装置の
動作について、図20のフローチャートおよび図21〜
図23の表示例を用いて説明する。まず、制御部6で
は、現在位置検出部5で現在位置の座標が検出される
と、この座標を含んだ地図情報を地図情報記憶部1から
読み出して、所定の縮尺でディスプレイ4aに表示させ
る(ステップ100)。The operation of the navigation device according to the sixth embodiment will be described with reference to the flowchart of FIG.
This will be described with reference to the display example of FIG. First, when the current position detection unit 5 detects the coordinates of the current position, the control unit 6 reads the map information including the coordinates from the map information storage unit 1 and displays the map information on the display 4a at a predetermined scale ( Step 100).
【0046】ユーザが希望する施設(以下、ユーザ希望
施設という)を検索したい場合、タッチパネル4bを用
いて、検索開始地点を指やペンなどで触れることによ
り、このタッチ入力が受け付けられる(ステップ12
0:図21(a)参照)。また、ステップ120の入力
処理に前後して、ユーザ希望施設のキーワード(例え
ば、「銀行」)を音声入力部3に向かって発話すること
により、音声識別部7で発話内容が認識される(ステッ
プ103)。When the user wants to search for a desired facility (hereinafter referred to as a user-required facility), the touch input is accepted by touching the search start point with a finger or a pen using the touch panel 4b (step 12).
0: See FIG. 21 (a)). Further, before or after the input processing in step 120, a keyword (for example, “bank”) of the facility desired by the user is uttered toward the voice input unit 3 so that the uttered content is recognized by the voice identification unit 7 (step). 103).
【0047】ステップ120による検索開始地点のタッ
チ入力と、ステップ103によるユーザ希望施設の音声
入力とが所定の期間内に行われた場合(ステップ10
4)、施設情報検索部8は、施設情報記憶部2を検索し
て、施設のキーワードに対応する施設情報を抽出する
(ステップ105)。そして、対応する施設情報が存在
しない場合(ステップ106)、「指定の範囲内に銀行
はありませんでした。」などのメッセージをディスプレ
イ4aに表示して、処理を終了する(ステップ10
9)。When the touch input of the search start point in step 120 and the voice input of the facility desired by the user in step 103 are performed within a predetermined period (step 10)
4) The facility information search unit 8 searches the facility information storage unit 2 and extracts facility information corresponding to the keyword of the facility (step 105). If the corresponding facility information does not exist (step 106), a message such as "There was no bank within the designated range" is displayed on the display 4a, and the process ends (step 10).
9).
【0048】また、ステップ106で、対応する施設情
報が存在する場合、検索開始地点に最も近い施設を検出
し(ステップ121)、検出した施設の位置情報と、検
索開始地点を中心にして検出した施設の位置まで拡がっ
た円とをディスプレイ4aに表示する(ステップ12
2:図21(b)参照)。なお、この処理では、検索開
始地点を中心に円が拡がるアニメーションを挿入しても
よい。If the corresponding facility information exists in step 106, the facility closest to the search start point is detected (step 121), and the detected facility location information and the search start point are centered. The circle extending to the facility is displayed on the display 4a (step 12).
2: See FIG. 21 (b)). In this process, an animation in which a circle expands around the search start point may be inserted.
【0049】その後、検出した施設が画面の中心に来る
ように、ディスプレイ4aに表示された画像をスライド
させて、検出した施設以外のユーザ希望施設の位置情報
を例えば、半透明等でディスプレイ4aに重畳して表示
する(ステップ123:図22(a)参照)。さらに、
拡大表示部11の処理によって、検出した施設を中心に
地図情報をディスプレイ4aに拡大表示する(ステップ
124:図22(b)参照)。拡大表示する倍率は、固
定倍率でもよく、音声入力等でその都度指定してもよ
い。Thereafter, the image displayed on the display 4a is slid so that the detected facility is located at the center of the screen, and the position information of the user's desired facility other than the detected facility is displayed on the display 4a in a translucent manner, for example. It is superimposed and displayed (step 123: see FIG. 22A). further,
By the processing of the enlarged display unit 11, the map information is enlarged and displayed around the detected facility on the display 4a (step 124: see FIG. 22B). The magnification for enlarged display may be a fixed magnification or may be designated each time by voice input or the like.
【0050】ユーザがタッチパネル4bを操作して、検
出した施設を選択すると(図23(a)参照)、制御部
6は現在位置からこの施設までの案内ルートを検索し
(ステップ125)、検出した案内リストをディスプレ
イ4aに表示する(ステップ126:図23(b)参
照)。When the user operates the touch panel 4b to select the detected facility (see FIG. 23 (a)), the control unit 6 searches for a guide route from the current position to this facility (step 125) and detects the guide route. The guidance list is displayed on the display 4a (step 126: see FIG. 23 (b)).
【0051】以上説明したように、地図上の一点を指定
するだけの簡単な入力操作で、この点に最も近いユーザ
希望施設を検索することができるので、例えば、自動車
等の交通機関で移動している最中に操作する場合でも、
信号待ちなどの僅かな時間を利用して、希望施設の検索
が行え、操作性が向上する。また、所定の倍率で拡大表
示されるので、目的地までのルートを容易に把握するこ
とができる。さらに、図22(b)に示すように、拡大
表示する際には、円弧が併せて表示されるので、この円
弧より、検索開始地点に対して目的地が離れている方向
を、大まかに把握することができる。As described above, a user's desired facility closest to this point can be searched by a simple input operation simply by designating one point on the map. Even if you operate while you are
A desired facility can be searched using a short time such as waiting for a traffic light, thereby improving operability. Also, since the display is enlarged at a predetermined magnification, the route to the destination can be easily grasped. Furthermore, as shown in FIG. 22 (b), when the display is enlarged, an arc is also displayed, so that the direction in which the destination is away from the search start point can be roughly grasped from this arc. can do.
【0052】なお、各実施の形態においては、地図に関
する関連情報を記憶する関連情報記憶部の一例として、
施設情報を記憶する施設情報記憶部2を用いて説明した
が、関連情報は施設情報に限定されることなく、例え
ば、住所の情報であってもよい。この場合には、例え
ば、町名が判っていて場所が判らない場合であっても、
所望の関連情報を検索することができる。また、関連情
報として、店舗等が運営するホームページのアドレスで
あってもよい。この場合には、例えば、レストランのメ
ニュー、価格、駐車場の有無などの各種情報を簡単に検
索することができる。In each embodiment, as an example of a related information storage unit for storing related information relating to a map,
Although the description has been given using the facility information storage unit 2 that stores the facility information, the related information is not limited to the facility information, and may be, for example, address information. In this case, for example, even if the name of the street is known and the location is not known,
Desired related information can be searched. The related information may be an address of a homepage operated by a store or the like. In this case, for example, various information such as a restaurant menu, a price, and the presence or absence of a parking lot can be easily searched.
【0053】また、各実施の形態においては、訂正/取
消キーを加えた構成にしてもよい。これらのキーを用い
ることによって、タッチ入力や音声入力を間違えた場合
にも、迅速に入力を修正或いは取り消すことができる。Further, in each embodiment, a configuration may be adopted in which a correction / cancel key is added. By using these keys, even if a touch input or a voice input is mistaken, the input can be quickly corrected or canceled.
【0054】さらに、図3(b)、図4(a)(b)、
図12(a)(b)、図13、図16(a)に記載され
た検索希望範囲の輪郭線は、いずれも手書き入力による
フリーハンドの線である。Further, FIGS. 3B, 4A and 4B,
The outlines of the desired search range described in FIGS. 12A, 12B, 13 and 16A are all freehand lines obtained by handwriting input.
【0055】また、各実施の形態においては、地図情報
記憶部1に3D地図情報を記憶させ、この地図情報記憶
部1に記憶された3D地図情報を読み出して、図24
(a)に示すような3次元の地図画像(1点、2点ない
し3点透視図法表現等)をディスプレイ4aに表示させ
てもよい。In each of the embodiments, the 3D map information is stored in the map information storage unit 1, and the 3D map information stored in the map information storage unit 1 is read out.
A three-dimensional map image (one-point, two-point or three-point perspective projection expression or the like) as shown in (a) may be displayed on the display 4a.
【0056】例えば、図24(b)に示すように、近傍
(画面の下側)の領域を検索する場合には、遠方に比較
して地図が詳細表示となっているため、面積当たりの表
示解像度が高く、位置ないし範囲指定を高い精度で実施
することができる。また、図24(c)に示すように、
遠方(画面の上側)の領域を検索する場合には、近方に
比較して地図が広域表示となっているため、画面縮尺の
変更なしに、比較的広範囲に対しての検索が可能とな
る。以上をまとめると、図25に示すように、近傍の領
域の検索は、検索希望範囲を限定し易い。また、遠方の
領域の検索は、狭い範囲は限定し難いが、広範囲の指定
がし易い。For example, as shown in FIG. 24 (b), when searching for an area in the vicinity (lower side of the screen), the map is displayed in more detail than in a distant area. The resolution is high, and the position or range can be specified with high accuracy. Also, as shown in FIG.
When searching for a distant (upper part of the screen) area, the map is displayed in a wider area than in the near area, so that a relatively large area can be searched without changing the scale of the screen. . In summary, as shown in FIG. 25, the search for a nearby area can easily limit the desired search range. In addition, in searching for a distant region, it is difficult to limit a narrow range, but it is easy to specify a wide range.
【0057】[0057]
【発明の効果】本発明に係るナビゲーション装置は、以
上のように構成されているため、次のような効果を得る
ことができる。即ち、ユーザが希望する関連情報の音声
入力は発話受付期間中に行えばよく、たとえ、検索希望
範囲のタッチ入力前であっても、音声入力は受け付けら
れる。このため、入力順番を意識することなく、複数方
式の入力を行うことができるので、ユーザの使い勝手が
向上する。また、発話受付期間は、検索希望範囲のタッ
チ入力を基準に定められるため、音声入力を開始する際
にユーザが特別な操作(例えば、スイッチを押下するな
ど)を行う必要がなく、最適なユーザインターフェース
を提供できる。Since the navigation device according to the present invention is configured as described above, the following effects can be obtained. That is, the voice input of the related information desired by the user may be performed during the utterance reception period, and the voice input is received even before the touch input of the search desired range. For this reason, since input of a plurality of methods can be performed without being conscious of the input order, the usability of the user is improved. Further, since the utterance acceptance period is determined based on the touch input in the desired search range, there is no need for the user to perform a special operation (for example, pressing a switch, etc.) when starting the voice input. Can provide an interface.
【図1】実施の形態1に係るナビゲーション装置の構成
を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a navigation device according to a first embodiment.
【図2】実施の形態1に係るナビゲーション装置の動作
を示すフローチャートである。FIG. 2 is a flowchart showing an operation of the navigation device according to the first embodiment.
【図3】ディスプレイへの表示例を示す図である。FIG. 3 is a diagram showing a display example on a display.
【図4】ディスプレイへの表示例を示す図である。FIG. 4 is a diagram showing a display example on a display.
【図5】音声入力とタッチ入力の処理タイミングを示す
図である。FIG. 5 is a diagram illustrating processing timings of a voice input and a touch input.
【図6】音声入力とタッチ入力の処理タイミングを示す
図である。FIG. 6 is a diagram showing processing timings of a voice input and a touch input.
【図7】実施の形態2に係るナビゲーション装置の構成
を示すブロック図である。FIG. 7 is a block diagram showing a configuration of a navigation device according to a second embodiment.
【図8】実施の形態2に係るナビゲーション装置の動作
を示すフローチャートである。FIG. 8 is a flowchart showing an operation of the navigation device according to the second embodiment.
【図9】ディスプレイへの表示例を示す図である。FIG. 9 is a diagram showing a display example on a display.
【図10】実施の形態3に係るナビゲーション装置の構
成を示すブロック図である。FIG. 10 is a block diagram showing a configuration of a navigation device according to a third embodiment.
【図11】実施の形態3に係るナビゲーション装置の動
作を示すフローチャートである。FIG. 11 is a flowchart showing an operation of the navigation device according to the third embodiment.
【図12】ディスプレイへの表示例を示す図である。FIG. 12 is a diagram illustrating a display example on a display.
【図13】ディスプレイへの表示例を示す図である。FIG. 13 is a diagram illustrating a display example on a display.
【図14】実施の形態4に係るナビゲーション装置の構
成を示すブロック図である。FIG. 14 is a block diagram showing a configuration of a navigation device according to a fourth embodiment.
【図15】実施の形態4に係るナビゲーション装置の動
作を示すフローチャートである。FIG. 15 is a flowchart showing an operation of the navigation device according to the fourth embodiment.
【図16】ディスプレイへの表示例を示す図である。FIG. 16 is a diagram illustrating a display example on a display.
【図17】実施の形態5に係るナビゲーション装置の構
成を示すブロック図である。FIG. 17 is a block diagram showing a configuration of a navigation device according to a fifth embodiment.
【図18】ディスプレイへの表示例を示す図である。FIG. 18 is a diagram illustrating a display example on a display.
【図19】実施の形態6に係るナビゲーション装置の構
成を示すブロック図である。FIG. 19 is a block diagram showing a configuration of a navigation device according to a sixth embodiment.
【図20】実施の形態6に係るナビゲーション装置の動
作を示すフローチャートである。FIG. 20 is a flowchart showing an operation of the navigation device according to the sixth embodiment.
【図21】ディスプレイへの表示例を示す図である。FIG. 21 is a diagram illustrating a display example on a display.
【図22】ディスプレイへの表示例を示す図である。FIG. 22 is a diagram illustrating a display example on a display.
【図23】ディスプレイへの表示例を示す図である。FIG. 23 is a diagram illustrating a display example on a display.
【図24】ディスプレイへの表示例を示す図である。FIG. 24 is a diagram illustrating a display example on a display.
【図25】ディスプレイへの表示例を示す図である。FIG. 25 is a diagram illustrating a display example on a display.
1…地図情報記憶部、2…施設情報記憶部(関連情報記
憶部)、3…音声入力部、4…入出力処理部、4a…デ
ィスプレイ、4b…タッチパネル、5…現在位置検出
部、6…制御部、7…音声認識部、8,13…施設情報
検索部(関連情報検索部)、9…色彩変更部、10…一
覧リスト表示部、11…拡大表示部、12…範囲設定
部。DESCRIPTION OF SYMBOLS 1 ... Map information storage part, 2 ... Facility information storage part (related information storage part), 3 ... Speech input part, 4 ... Input / output processing part, 4a ... Display, 4b ... Touch panel, 5 ... Current position detection part, 6 ... Control unit, 7: voice recognition unit, 8, 13: facility information search unit (related information search unit), 9: color change unit, 10: list list display unit, 11: enlarged display unit, 12: range setting unit.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/0969 G08G 1/0969 5H180 G09B 29/00 G09B 29/00 A 29/10 29/10 A G10L 15/00 G10L 3/00 571K 15/28 551Q (72)発明者 上村 勉 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 鈴木 忠 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 荻島 盟一 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 伊達 研郎 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 井上 勝雄 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 宇津井 良彦 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 2C032 HC16 HC22 HC23 HC24 2F029 AA02 AA07 AB07 AC02 AC14 AC18 AD07 5B050 AA10 BA17 CA07 EA12 FA02 FA08 FA09 FA10 FA12 FA14 FA17 FA19 GA08 5B075 ND08 PP07 UU14 5D015 KK02 5H180 AA01 AA21 EE01 FF05 FF22 FF25 FF27 FF32 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G08G 1/0969 G08G 1/0969 5H180 G09B 29/00 G09B 29/00 A 29/10 29/10 A G10L 15 / 00 G10L 3/00 571K 15/28 551Q (72) Inventor Tsutomu Uemura 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Inside Mitsubishi Electric Corporation (72) Inventor Tadashi Suzuki 2-2-2 Marunouchi, Chiyoda-ku, Tokyo No. 3 Inside Mitsubishi Electric Co., Ltd. No. 3 Mitsubishi Electric Corporation (72) Katsuo Inoue 2-3-2 Marunouchi, Chiyoda-ku, Tokyo 2-3-2 Mitsubishi Electric Corporation (72) Inventor Utsu Yoshihiko 2-3-2 Marunouchi, Chiyoda-ku, Tokyo F-term in Mitsubishi Electric Corporation (reference) 2C032 HC16 HC22 HC23 HC24 2F029 AA02 AA07 AB07 AC02 AC14 AC18 AD07 5B050 AA10 BA17 CA07 EA12 FA02 FA08 FA09 FA10 FA12 FA14 FA17 FA19 GA08 5B075 ND08 PP07 UU14 5D015 KK02 5H180 AA01 AA21 EE01 FF05 FF22 FF25 FF27 FF32
Claims (12)
と、 地図に関する関連情報が記憶された関連情報記憶部と、 関連情報の音声入力を受け付ける音声入力部と、 前記音声入力部で受け付けた関連情報を認識する音声認
識部と、 前記地図情報記憶部に記憶された地図情報を読み出し
て、この地図情報を表示させると共に、この地図上の所
定の範囲指定を受け付ける入出力処理部と、 前記関連情報記憶部に記憶された全関連情報の中から、
前記入出力処理部で受け付けた範囲内の関連情報を抽出
すると共に、抽出した全関連情報の中から、前記音声認
識部で認識した関連情報を検索する関連情報検索部とを
備え、 前記関連情報検索部は、前記音声入力部による音声の受
付と、前記入出力処理部による範囲指定の受付とが所定
の期間内にあった場合に、関連情報を検索することを特
徴とするナビゲーション装置。1. A map information storage unit in which map information is stored; a related information storage unit in which related information relating to a map is stored; a voice input unit for receiving a voice input of the relevant information; A voice recognition unit that recognizes relevant information, an input / output processing unit that reads out the map information stored in the map information storage unit, displays the map information, and receives a predetermined range designation on the map; From all related information stored in the related information storage unit,
A related information search unit that extracts related information within a range accepted by the input / output processing unit, and searches the extracted related information for related information recognized by the voice recognition unit; The navigation device, wherein the search unit searches for related information when reception of a voice by the voice input unit and reception of a range designation by the input / output processing unit are within a predetermined period.
による音声の受付と、前記入出力処理部による範囲指定
の受付との少なくとも一方が所定の期間内に複数回あっ
た場合に、最後に受け付けた入力を採用することを特徴
とする請求項1記載のナビゲーション装置。2. The related information search unit, if at least one of the reception of a voice by the voice input unit and the reception of a range designation by the input / output processing unit occurs a plurality of times within a predetermined period, 2. The navigation device according to claim 1, wherein the input received is used.
による音声の受付と、前記入出力処理部による範囲指定
の受付との少なくとも一方が所定の期間内に複数回あっ
た場合に、最初に受け付けた入力を採用することを特徴
とする請求項1記載のナビゲーション装置。3. The related information search unit, when at least one of the reception of the voice by the voice input unit and the reception of the range designation by the input / output processing unit occurs a plurality of times within a predetermined period, 2. The navigation device according to claim 1, wherein the input received is used.
部で範囲指定を受け付けた場合に、この範囲の内外で色
彩を変えた地図情報を前記入出力処理部に表示させる色
彩変更部を備えることを特徴とする請求項1から請求項
3のいずれか一項に記載のナビゲーション装置。4. The related information search unit includes a color changing unit that, when the input / output processing unit receives a range designation, causes the input / output processing unit to display map information whose color has been changed inside and outside the range. The navigation device according to any one of claims 1 to 3, wherein the navigation device is provided.
と、 地図に関する関連情報が記憶された関連情報記憶部と、 関連情報の音声入力を受け付ける音声入力部と、 前記音声入力部で受け付けた音声を認識する音声認識部
と、 前記地図情報記憶部に記憶された地図情報を読み出し
て、地図を表示させると共に、この地図上の所定の範囲
指定を受け付ける入出力処理部と、 前記関連情報記憶部に記憶された全関連情報の中から、
前記入出力処理部で受け付けた範囲内の関連情報を抽出
すると共に、抽出した全関連情報の中から、前記音声認
識部で認識した関連情報を検索する関連情報検索部と、 前記関連情報検索部で検索した関連情報が複数存在する
場合に、これらの関連情報の一覧リストを前記入出力処
理部に表示させる一覧リスト表示部とを備えることを特
徴とするナビゲーション装置。5. A map information storage unit in which map information is stored, a related information storage unit in which related information relating to a map is stored, a voice input unit for receiving a voice input of the related information, A voice recognition unit for recognizing voice, an input / output processing unit for reading map information stored in the map information storage unit, displaying a map, and receiving a predetermined range designation on the map; From all related information stored in the department,
A related information search unit that extracts related information within a range received by the input / output processing unit, and searches the extracted related information for related information recognized by the voice recognition unit; And a list list display unit for displaying a list of the related information on the input / output processing unit when a plurality of related information retrieved in (1) exists.
近い順番で前記一覧リストを作成し、現在位置が変わっ
た場合に、前記一覧リストを修正することを特徴とする
請求項5記載のナビゲーション装置。6. The navigation according to claim 5, wherein the list list display unit creates the list list in an order close to a current position, and corrects the list list when the current position changes. apparatus.
検索部で検索した関連情報が存在しない場合、前記入出
力処理部で受け付けた範囲外の関連情報を抽出して、こ
の関連情報を参考情報として前記入出力処理部に表示さ
せることを特徴とする請求項5又は請求項6記載のナビ
ゲーション装置。7. When there is no related information searched by the related information search unit, the list display unit extracts related information outside the range received by the input / output processing unit and refers to the related information. 7. The navigation device according to claim 5, wherein the information is displayed on the input / output processing unit as information.
と、 前記地図情報記憶部に記憶された地図情報を読み出し
て、地図を表示させると共に、この地図上の所定の範囲
指定を受け付ける入出力処理部と、 前記入出力処理部で受け付けた範囲指定に基づいて、範
囲内の地図情報を前記入出力処理部に拡大表示させる拡
大表示部とを備えることを特徴とするナビゲーション装
置。8. A map information storage unit in which map information is stored, and input / output for reading out the map information stored in the map information storage unit, displaying a map, and accepting a specified range designation on the map. A navigation device comprising: a processing unit; and an enlarged display unit that causes the input / output processing unit to enlarge and display map information in a range based on the range specification received by the input / output processing unit.
声入力部と、 前記音声入力部で受け付けた音声を認識する音声認識部
とを更に備え、 前記拡大表示部は、前記音声認識部で認識した画面拡大
命令に従って、地図情報を変更して前記入出力処理部に
表示させることを特徴とする請求項8記載のナビゲーシ
ョン装置。9. A voice input unit for receiving a voice input of a screen enlargement command, and a voice recognition unit for recognizing the voice received by the voice input unit, wherein the enlarged display unit recognizes the voice by the voice recognition unit. 9. The navigation device according to claim 8, wherein the map information is changed and displayed on the input / output processing unit in accordance with the screen enlargement instruction.
と、 地図に関する関連情報が記憶された関連情報記憶部と、 関連情報の音声入力を受け付ける音声入力部と、 前記音声入力部で受け付けた音声を認識する音声認識部
と、 前記地図情報記憶部に記憶された地図情報を読み出し
て、地図を表示させると共に、点の入力と、この点を中
心とした円弧状の入力とを受け付ける入出力処理部と、 前記関連情報記憶部に記憶された全関連情報の中から、
前記入出力処理部で受け付けた範囲内の関連情報を抽出
すると共に、抽出した全関連情報の中から、前記音声認
識部で認識した関連情報を検索する関連情報検索部と、 前記入出力処理部で受け付けた点の入力と、この点を中
心とした円弧状の入力とに基づいて、扇状の範囲を設定
する範囲設定部とを備えることを特徴とするナビゲーシ
ョン装置。10. A map information storage unit in which map information is stored, a related information storage unit in which related information relating to a map is stored, a voice input unit for receiving a voice input of the relevant information, A voice recognition unit for recognizing voice; input / output for reading map information stored in the map information storage unit, displaying a map, and receiving a point input and an arc-shaped input centered on the point. A processing unit, from among all the related information stored in the related information storage unit,
A related information search unit that extracts related information within a range accepted by the input / output processing unit, and searches the extracted related information for related information recognized by the voice recognition unit; A range setting unit for setting a fan-shaped range based on an input of a point received in step (1) and an arc-shaped input centered on the point.
と、 地図に関する関連情報が記憶された関連情報記憶部と、 関連情報の音声入力を受け付ける音声入力部と、 前記音声入力部で受け付けた音声を認識する音声認識部
と、 前記地図情報記憶部に記憶された地図情報を読み出し
て、地図を表示させると共に、この地図上の検索開始地
点の入力を受け付ける入出力処理部と、 前記関連情報記憶部に記憶された全関連情報の中から、
前記音声認識部で認識した関連情報を検索する関連情報
検索部とを備え、 前記関連情報検索部は、前記入出力処理部で受け付けた
検索開始地点を中心にして、検索範囲を徐々に広げるこ
とを特徴とするナビゲーション装置。11. A map information storage unit in which map information is stored; a related information storage unit in which related information relating to a map is stored; a voice input unit for receiving a voice input of the related information; A voice recognition unit for recognizing voice, an input / output processing unit for reading map information stored in the map information storage unit, displaying a map, and receiving an input of a search start point on the map; From all the related information stored in the storage unit,
A related information search unit that searches for related information recognized by the voice recognition unit, wherein the related information search unit gradually widens a search range around a search start point received by the input / output processing unit. A navigation device characterized by the above-mentioned.
報が記憶されており、前記入出力処理部では、前記地図
情報記憶部に記憶された3D地図情報を読み出して、地
図を3次元で表示させることを特徴とする請求項1から
請求項11のいずれか一項記載のナビゲーション装置。12. The 3D map information is stored in the map information storage unit. The input / output processing unit reads out the 3D map information stored in the map information storage unit, and converts the map in three dimensions. The navigation device according to any one of claims 1 to 11, wherein the navigation device is displayed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001155135A JP2002350151A (en) | 2001-05-24 | 2001-05-24 | Navigation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001155135A JP2002350151A (en) | 2001-05-24 | 2001-05-24 | Navigation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002350151A true JP2002350151A (en) | 2002-12-04 |
Family
ID=18999375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001155135A Pending JP2002350151A (en) | 2001-05-24 | 2001-05-24 | Navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002350151A (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005055259A (en) * | 2003-08-01 | 2005-03-03 | Alpine Electronics Inc | Navigation system, facility list display method, and program |
JP2006195637A (en) * | 2005-01-12 | 2006-07-27 | Toyota Motor Corp | Voice interaction system for vehicle |
JP2006300522A (en) * | 2005-04-15 | 2006-11-02 | Xanavi Informatics Corp | Navigation system |
JP2006322781A (en) * | 2005-05-18 | 2006-11-30 | Xanavi Informatics Corp | Navigation system |
JP2007219615A (en) | 2006-02-14 | 2007-08-30 | Sony Corp | Retrieval device, retrieval method, program |
JP2008224344A (en) * | 2007-03-12 | 2008-09-25 | Aisin Aw Co Ltd | Navigation device |
JP2008304324A (en) * | 2007-06-07 | 2008-12-18 | Sony Corp | Navigation device and the nearby search method |
US7490004B2 (en) | 2003-12-19 | 2009-02-10 | Alpine Electronics, Inc. | Vehicle navigation apparatus and method of searching for and displaying neighborhood facilities |
JP2009116774A (en) * | 2007-11-09 | 2009-05-28 | Kenwood Corp | Vehicle operation management apparatus and method, and program |
JP2009237895A (en) * | 2008-03-27 | 2009-10-15 | Denso It Laboratory Inc | Map display system, map display method, and program |
JP2010249810A (en) * | 2009-03-27 | 2010-11-04 | Zenrin Co Ltd | Spot setting device |
US7990400B2 (en) * | 2006-11-16 | 2011-08-02 | International Business Machines Corporation | Method for displaying images on display screen |
JP2012053665A (en) * | 2010-09-01 | 2012-03-15 | Hitachi Solutions Ltd | Poi information search terminal by scope specification, and poi information search system |
US20120068943A1 (en) * | 2010-09-16 | 2012-03-22 | Mstar Semiconductor, Inc. | Method and Electronic Device for Retrieving Geographic Information |
JP2013015538A (en) * | 2012-10-09 | 2013-01-24 | Jvc Kenwood Corp | Facility retrieval device, program, navigation device, and facility retrieval method |
JP2014013600A (en) * | 2013-09-12 | 2014-01-23 | Sony Corp | Retrieval method, retrieval device, and program |
USRE45220E1 (en) | 2004-03-31 | 2014-10-28 | JVC Kenwood Corporation | Facility searching device, program, navigation device, and facility searching method |
JP2015007595A (en) * | 2013-06-26 | 2015-01-15 | 富士通テン株式会社 | Device for vehicle, communication system, communication method, and program |
JP2016118569A (en) * | 2016-03-17 | 2016-06-30 | 株式会社ナビタイムジャパン | Information processing system, information processing apparatus, information processing method, and information processing program |
JP2016151707A (en) * | 2015-02-18 | 2016-08-22 | 株式会社ゼンリンデータコム | Map display system and program |
JP2018081102A (en) * | 2017-12-15 | 2018-05-24 | 株式会社デンソーテン | Communication device, communication method, and program |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06251296A (en) * | 1993-02-25 | 1994-09-09 | Mitsubishi Electric Corp | Navigation device |
JPH0735556A (en) * | 1993-07-16 | 1995-02-07 | Mitsubishi Electric Corp | Navigation device for traveling body |
JPH07230293A (en) * | 1994-02-17 | 1995-08-29 | Sony Corp | Voice recognition device |
JPH0850698A (en) * | 1994-08-05 | 1996-02-20 | Mazda Motor Corp | Audio interactive navigation device |
JPH08185196A (en) * | 1994-12-28 | 1996-07-16 | Sony Corp | Device for detecting speech section |
JPH08184455A (en) * | 1994-12-28 | 1996-07-16 | Aisin Aw Co Ltd | Navigation device |
JPH08212238A (en) * | 1994-11-30 | 1996-08-20 | Toshiba Corp | Individual information terminal equipment |
JPH09292757A (en) * | 1996-02-29 | 1997-11-11 | Oki Data:Kk | Image forming method and device therefor |
JPH1078961A (en) * | 1996-09-04 | 1998-03-24 | Nippon Telegr & Teleph Corp <Ntt> | Speech analyzer |
JP2000163444A (en) * | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | Portable information device and information storage medium |
JP2001027536A (en) * | 1999-07-13 | 2001-01-30 | Alpine Electronics Inc | Navigation system |
JP2001133283A (en) * | 1999-11-08 | 2001-05-18 | Alpine Electronics Inc | Navigation device |
JP3731499B2 (en) * | 2001-05-25 | 2006-01-05 | 三菱電機株式会社 | Voice recognition control device and in-vehicle information processing device |
-
2001
- 2001-05-24 JP JP2001155135A patent/JP2002350151A/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06251296A (en) * | 1993-02-25 | 1994-09-09 | Mitsubishi Electric Corp | Navigation device |
JPH0735556A (en) * | 1993-07-16 | 1995-02-07 | Mitsubishi Electric Corp | Navigation device for traveling body |
JPH07230293A (en) * | 1994-02-17 | 1995-08-29 | Sony Corp | Voice recognition device |
JPH0850698A (en) * | 1994-08-05 | 1996-02-20 | Mazda Motor Corp | Audio interactive navigation device |
JPH08212238A (en) * | 1994-11-30 | 1996-08-20 | Toshiba Corp | Individual information terminal equipment |
JPH08184455A (en) * | 1994-12-28 | 1996-07-16 | Aisin Aw Co Ltd | Navigation device |
JPH08185196A (en) * | 1994-12-28 | 1996-07-16 | Sony Corp | Device for detecting speech section |
JPH09292757A (en) * | 1996-02-29 | 1997-11-11 | Oki Data:Kk | Image forming method and device therefor |
JPH1078961A (en) * | 1996-09-04 | 1998-03-24 | Nippon Telegr & Teleph Corp <Ntt> | Speech analyzer |
JP2000163444A (en) * | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | Portable information device and information storage medium |
JP2001027536A (en) * | 1999-07-13 | 2001-01-30 | Alpine Electronics Inc | Navigation system |
JP2001133283A (en) * | 1999-11-08 | 2001-05-18 | Alpine Electronics Inc | Navigation device |
JP3731499B2 (en) * | 2001-05-25 | 2006-01-05 | 三菱電機株式会社 | Voice recognition control device and in-vehicle information processing device |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005055259A (en) * | 2003-08-01 | 2005-03-03 | Alpine Electronics Inc | Navigation system, facility list display method, and program |
US7490004B2 (en) | 2003-12-19 | 2009-02-10 | Alpine Electronics, Inc. | Vehicle navigation apparatus and method of searching for and displaying neighborhood facilities |
USRE46732E1 (en) | 2004-03-31 | 2018-02-27 | JVC Kenwood Corporation | Facility searching device, program, navigation device, and facility searching method |
USRE45220E1 (en) | 2004-03-31 | 2014-10-28 | JVC Kenwood Corporation | Facility searching device, program, navigation device, and facility searching method |
JP2006195637A (en) * | 2005-01-12 | 2006-07-27 | Toyota Motor Corp | Voice interaction system for vehicle |
JP4728685B2 (en) * | 2005-04-15 | 2011-07-20 | クラリオン株式会社 | Navigation device |
JP2006300522A (en) * | 2005-04-15 | 2006-11-02 | Xanavi Informatics Corp | Navigation system |
JP2006322781A (en) * | 2005-05-18 | 2006-11-30 | Xanavi Informatics Corp | Navigation system |
US8688672B2 (en) | 2006-02-14 | 2014-04-01 | Sony Corporation | Search apparatus and method, and program |
JP2007219615A (en) | 2006-02-14 | 2007-08-30 | Sony Corp | Retrieval device, retrieval method, program |
US9268790B2 (en) | 2006-02-14 | 2016-02-23 | Sony Corporation | Search apparatus and method, and program |
US7990400B2 (en) * | 2006-11-16 | 2011-08-02 | International Business Machines Corporation | Method for displaying images on display screen |
JP2008224344A (en) * | 2007-03-12 | 2008-09-25 | Aisin Aw Co Ltd | Navigation device |
US9121725B2 (en) | 2007-06-07 | 2015-09-01 | Sony Corporation | Navigation device and nearest point search method |
JP2008304324A (en) * | 2007-06-07 | 2008-12-18 | Sony Corp | Navigation device and the nearby search method |
JP4632096B2 (en) * | 2007-06-07 | 2011-02-16 | ソニー株式会社 | Navigation device and nearest search method |
JP2009116774A (en) * | 2007-11-09 | 2009-05-28 | Kenwood Corp | Vehicle operation management apparatus and method, and program |
JP2009237895A (en) * | 2008-03-27 | 2009-10-15 | Denso It Laboratory Inc | Map display system, map display method, and program |
JP2010249810A (en) * | 2009-03-27 | 2010-11-04 | Zenrin Co Ltd | Spot setting device |
JP2012053665A (en) * | 2010-09-01 | 2012-03-15 | Hitachi Solutions Ltd | Poi information search terminal by scope specification, and poi information search system |
US20120068943A1 (en) * | 2010-09-16 | 2012-03-22 | Mstar Semiconductor, Inc. | Method and Electronic Device for Retrieving Geographic Information |
JP2013015538A (en) * | 2012-10-09 | 2013-01-24 | Jvc Kenwood Corp | Facility retrieval device, program, navigation device, and facility retrieval method |
JP2015007595A (en) * | 2013-06-26 | 2015-01-15 | 富士通テン株式会社 | Device for vehicle, communication system, communication method, and program |
JP2014013600A (en) * | 2013-09-12 | 2014-01-23 | Sony Corp | Retrieval method, retrieval device, and program |
JP2016151707A (en) * | 2015-02-18 | 2016-08-22 | 株式会社ゼンリンデータコム | Map display system and program |
JP2016118569A (en) * | 2016-03-17 | 2016-06-30 | 株式会社ナビタイムジャパン | Information processing system, information processing apparatus, information processing method, and information processing program |
JP2018081102A (en) * | 2017-12-15 | 2018-05-24 | 株式会社デンソーテン | Communication device, communication method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002350151A (en) | Navigation device | |
JP5210497B2 (en) | Navigation device | |
US20130076615A1 (en) | Interface method and apparatus for inputting information with air finger gesture | |
US20080040026A1 (en) | Method and apparatus for specifying destination using previous destinations stored in navigation system | |
JP5500818B2 (en) | Display control apparatus and display control method | |
JP4725731B2 (en) | Car navigation system | |
US20060224312A1 (en) | Address input method and apparatus for navigation system | |
JP2009151691A (en) | Information processor, and touch operation recognition method | |
CN109631920B (en) | Map application with improved navigation tool | |
JP2002206943A (en) | Navigation device and course searching program | |
JP2005292970A (en) | Device and method for retrieving facility, program, and navigation system | |
US7702458B2 (en) | Method and apparatus for entering street name | |
JP2993826B2 (en) | Navigation device | |
JP2010287032A (en) | Input device | |
JP2002022470A (en) | Navigation system | |
JP2001249023A (en) | Information processing apparatus and method and record medium having software recorded for processing information | |
JP2002350163A (en) | Navigation device | |
JP2009140287A (en) | Retrieval result display device | |
JP4807635B2 (en) | Navigation device | |
JP4471618B2 (en) | Item search device and item search method | |
JP3806525B2 (en) | Map search method and apparatus for navigation | |
JP3339460B2 (en) | Navigation device | |
JP2021174237A (en) | Search control device, computer program, and search system | |
JP2011141725A (en) | Navigation device | |
JP2002107173A (en) | Navigator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20040702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070314 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071113 |