JP4725375B2 - Navigation device, program and method - Google Patents

Navigation device, program and method Download PDF

Info

Publication number
JP4725375B2
JP4725375B2 JP2006069998A JP2006069998A JP4725375B2 JP 4725375 B2 JP4725375 B2 JP 4725375B2 JP 2006069998 A JP2006069998 A JP 2006069998A JP 2006069998 A JP2006069998 A JP 2006069998A JP 4725375 B2 JP4725375 B2 JP 4725375B2
Authority
JP
Japan
Prior art keywords
character
display
destination
point
target point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006069998A
Other languages
Japanese (ja)
Other versions
JP2007248162A (en
Inventor
邦博 須賀
実 新川
篤 鶴見
さゆり 柚木崎
春樹 葛岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2006069998A priority Critical patent/JP4725375B2/en
Publication of JP2007248162A publication Critical patent/JP2007248162A/en
Application granted granted Critical
Publication of JP4725375B2 publication Critical patent/JP4725375B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、目的地点への到着や出発地点からの出発に際し、出迎え用や見送り用等のキャラクタを表示するようにしたナビゲーション装置、ナビゲーションプログラム、及びナビゲーション方法に関する。   The present invention relates to a navigation device, a navigation program, and a navigation method that display characters for arrival and departure for arrival at a destination point or departure from a departure point.

従来、快適なドライブを楽しむための装置として、ナビゲーション装置が広く普及している。ナビゲーション装置の基本的な機能は、目的地までの経路を表示し、ドライバに提示することによって経路案内を行い、ドライバを補助することにある。このような基本的な機能に加え、案内用の音声として、予め録音した肉声を用いたり、音声認識の機能を組み込んで、ドライバからの音声入力に反応したりする機能を有するナビゲーション装置も知られている。さらには、案内を行うに際し、予め用意されたキャラクタの画像を、ナビゲーション装置の状況に連動させて、画面上に表示するようにしたものもある。   Conventionally, navigation devices have been widely used as devices for enjoying comfortable driving. The basic function of the navigation device is to assist the driver by displaying the route to the destination and presenting it to the driver to guide the route. In addition to these basic functions, navigation devices that have a function of using a prerecorded real voice as a guidance voice or incorporating a voice recognition function to respond to voice input from a driver are also known. ing. Furthermore, when performing guidance, there are also images in which an image of a character prepared in advance is displayed on the screen in conjunction with the situation of the navigation device.

このようなナビゲーション装置として、特許文献1には、ナビゲーション装置の動作状態、入力操作装置の操作状態に関する情報を、表示しているキャラクタのサイズ変化、動き、表情、ポーズ、音声等で提示するようにしたものが記載されている。ナビゲーション装置の動作状態とキャラクタによる表現とを対応させた例としては、たとえば、案内地点がルートに対して右側にある場合には、キャラクタが右方を向いた徒歩のポーズをとる例が挙げられている。入力操作装置の操作状態とキャラクタによる表現とを対応させた例としては、たとえば、ジョグダイアルが右回転させられると、キャラクタが上向きに歩くポーズをとり、歩く足でカレンダーを蹴って下側にスクロールさせ、月日の選択を行っている状態を示す例が挙げられている。   As such a navigation device, in Patent Document 1, information on the operation state of the navigation device and the operation state of the input operation device is presented in a size change, movement, facial expression, pose, voice, etc. of the displayed character. What is made is described. As an example of associating the operation state of the navigation device with the expression by the character, for example, when the guide point is on the right side with respect to the route, there is an example in which the character takes a walking pose facing right. ing. For example, if the jog dial is rotated to the right, the character poses to walk upward, kicks the calendar with his feet, and scrolls downward. The example which shows the state which is performing the selection of a date is given.

また、これに関連した技術として、特許文献2には、センサ等の検出結果に基づき、人の動きや音声を含む周囲の状態を認識して判断し、その結果に応じた動作や音声を出力するという機能を、エージェント(キャラクタ)の容姿の動きや音声と連動させて実行するようにしたエージェント装置を有するナビゲーション装置が記載されている。   In addition, as a technology related to this, Patent Document 2 recognizes and judges the surrounding state including a person's movement and sound based on the detection result of the sensor and the like, and outputs an operation and sound corresponding to the result. There is described a navigation device having an agent device that performs the function of performing in conjunction with the movement of the appearance of an agent (character) and voice.

特開2000−193463号公報JP 2000-193463 A 特開2004−054300号公報JP 2004-054300 A

しかしながら、従来のナビゲーション装置によれば、予め設定した目的地に近づいたとき、「目的地付近に到着しました」等のメッセージを音声により出力するが、それ以外の動作を行うことはない。この場合、目的地が自宅であるか又は他の地点であるかに応じてメッセージの内容が多少変わる場合もあるが、基本的には、目的地に応じて表現が大きく変わることはない。このため、車で遠出をしたとしても、目的地へ到着するに際してのナビゲーション装置による表現はいつも同じである。したがって、折角新しい目的地へドライブする場合でも、新鮮味にかけ、その土地の特色などが表現されることはない。   However, according to the conventional navigation apparatus, when the destination approaches a preset destination, a message such as “Arrived near the destination” is output by voice, but no other operation is performed. In this case, the content of the message may slightly change depending on whether the destination is at home or at another point, but basically, the expression does not change greatly depending on the destination. For this reason, even if the user goes out by car, the expression by the navigation device when arriving at the destination is always the same. Therefore, even when driving to a new destination, the freshness is not expressed and the characteristics of the land are not expressed.

本発明の目的は、このような従来技術の問題点に鑑み、目的地への到着や出発地からの出発に際し、その到着や出発を印象的に実感することができるようにするナビゲーション装置を提供することにある。   An object of the present invention is to provide a navigation device that makes it possible to feel the arrival and departure in an impressive manner when arriving at the destination and departing from the departure place in view of the problems of the prior art. There is to do.

上記目的を達成するため、第1の発明に係るナビゲーション装置は、対象地点の所定の近傍に達したことを検出する検出手段と、キャラクタを表示する表示手段と、前記表示手段において、前記検出手段による検出がなされたときから対象地点に到着するまでの間、対象地点に近づくに従い、対象地点に近づいてゆくことが表現されるように、前記キャラクタの表示を変化させる変化手段とを具備することを特徴とする。   In order to achieve the above object, a navigation device according to a first aspect of the present invention provides a detection means for detecting that a predetermined vicinity of a target point has been reached, a display means for displaying a character, and the display means, wherein the detection means Change means for changing the display of the character so as to express that the point of approach is approached as it approaches the target point from the time when detection is made until the point arrives at the target point. It is characterized by.

ここで、ナビゲーション装置としては、たとえば、車載用のものや、携帯用のものや、携帯電話や携帯端末に組み込まれたものが該当する。対象地点としては、たとえば、目的地や自宅が該当する。所定の近傍としてはたとえば、対象地点から所定の距離の地点や、ナビゲーション用に表示されている地図上に対象地点が現れるようになった地点が該当する。キャラクタは、人間のキャラクタに限らず、動物や、擬人化された物、アニメ等のキャラクタであってもよい。   Here, examples of the navigation device include a vehicle-mounted device, a portable device, and a device incorporated in a mobile phone or a mobile terminal. For example, the destination or home corresponds to the target point. Examples of the predetermined neighborhood include a point at a predetermined distance from the target point and a point at which the target point appears on the map displayed for navigation. The character is not limited to a human character, but may be an animal, anthropomorphic object, or a character such as an animation.

この構成において、対象地点の所定の近傍に達したことが検出されると、出迎え用などのキャラクタの表示が開始される。その後、キャラクタの表示は、対象地点に近づくに従い、変化し、これにより、対象地点に近づいてゆくことが表現される。したがってユーザは、対象地点に近づいてゆくことを、感覚的に認識することができる。   In this configuration, when it is detected that a predetermined vicinity of the target point has been reached, display of a character for greeting or the like is started. Thereafter, the display of the character changes as it approaches the target point, thereby expressing that the character is approaching the target point. Therefore, the user can recognize sensuously that he is approaching the target point.

第2の発明に係るナビゲーション装置は、対象地点から所定の位置にまで離れたことを検出する検出手段と、キャラクタを表示する表示手段と、前記表示手段において、対象地点を出発したときから前記検出手段による検出がなされるまでの間、対象地点から離れるに従い、対象地点から離れてゆくことが表現されるように、前記キャラクタの表示を変化させる変化手段とを具備することを特徴とする。   The navigation device according to a second aspect of the present invention is the detection means for detecting that the object point has been moved to a predetermined position, the display means for displaying the character, and the display means for detecting the detection from when the object point is departed. And changing means for changing the display of the character so as to express that the character is moving away from the target point as the user moves away from the target point until detection by the means is performed.

第3の発明に係るナビゲーション装置は、第1又は第2の発明において、前記変化手段によるキャラクタの表示の変化は、キャラクタの表示サイズの変化であることを特徴とする。   A navigation device according to a third invention is characterized in that, in the first or second invention, the change in display of the character by the changing means is a change in the display size of the character.

第4の発明に係るナビゲーション装置は、第1〜第3のいずれかの発明において、前記キャラクタの表示用の画像データとして、対象地点に対応付けられているもの、対象地点の種類に対応したもの、ユーザにより指定されたもの、又は表示を行うときの時間帯に対応するものを供給する画像データ供給手段を有することを特徴とする。   A navigation device according to a fourth invention is the navigation device according to any one of the first to third inventions, wherein the image data for display of the character is associated with the target point, or the type of the target point. And image data supply means for supplying the one specified by the user or the one corresponding to the time zone when the display is performed.

第5の発明に係るナビゲーション装置は、第4発明において、前記画像データ供給手段は、前記キャラクタ表示用の画像データを、所定のネットワーク上のサーバから取得する取得手段を有することを特徴とする。   A navigation device according to a fifth invention is characterized in that, in the fourth invention, the image data supply means has acquisition means for acquiring the image data for character display from a server on a predetermined network.

第6の発明に係るナビゲーションプログラムは、第1〜第4のいずれかの発明に係るナビゲーション装置における各手段としてコンピュータを機能させることを特徴とする。   A navigation program according to a sixth invention causes a computer to function as each means in the navigation device according to any one of the first to fourth inventions.

第7の発明に係るナビゲーション方法は、対象地点の所定の近傍に達したことを検出する検出工程と、キャラクタを表示する表示工程と、前記表示工程において、前記検出工程における検出がなされたときから対象地点に到着するまでの間、対象地点に近づくに従い、対象地点に近づいてゆくことが表現されるように、前記キャラクタの表示を変化させる変化工程とを具備することを特徴とする。   In the navigation method according to the seventh aspect of the present invention, a detection step of detecting that the vehicle has reached a predetermined vicinity of the target point, a display step of displaying a character, and a time when detection in the detection step is performed in the display step. A change step of changing the display of the character so as to express that the vehicle approaches the target point as it approaches the target point until it reaches the target point.

第8の発明に係るナビゲーション方法は、対象地点から所定の位置にまで離れたことを検出する検出工程と、キャラクタを表示する表示工程と、前記表示工程において、対象地点を出発したときから前記検出工程における検出がなされるまでの間、対象地点から離れるに従い、対象地点から離れてゆくことが表現されるように、前記キャラクタの表示を変化させる変化工程とを具備することを特徴とする。   In the navigation method according to the eighth aspect of the present invention, the detection step for detecting that the target point has been moved to the predetermined position, the display step for displaying the character, and the detection from the start of the target point in the display step. A change step of changing the display of the character so as to express that the character is moving away from the target point as the user moves away from the target point until the detection in the process is performed.

本発明によれば、対象地点に近づくに従い、又は対象地点から離れるに従い、そのことが表現されるように、キャラクタの表示を変化させるようにしたため、ユーザは、対象地点への到着や出発を、印象的に実感することができる。   According to the present invention, the display of the character is changed so that it is expressed as the target point is approached or separated from the target point. You can feel it impressively.

また、キャラクタの表示用の画像データとして、対象地点に対応付けられているもの、対象地点の種類に対応したもの、ユーザにより指定されたもの、又は表示を行うときの時間帯に対応するものを用いることができるので、対象地点の特色に合致したキャラクタによる出迎えや見送りにより到着時や出発時の感慨を深めたり、ユーザによるカスタマイズを可能としたり、到着時や出発時が夜か昼か等に応じて到着時や出発時の雰囲気を最適化したりすることができる。   Further, as image data for character display, data associated with the target point, data corresponding to the type of the target point, data specified by the user, or data corresponding to the time zone when the display is performed Since it can be used, it is possible to deepen the feeling of arrival and departure by meeting and seeing off by characters that match the characteristics of the target point, allowing customization by the user, whether arrival or departure is at night or noon, etc. The atmosphere on arrival and departure can be optimized accordingly.

また、キャラクタ表示用の画像データを、ネットワーク上のサーバから取得することができるようにしたため、たとえば、サーバにおいて、施設の関係者や、観光地の自治体等が作成したキャラクタの画像データを、その施設や観光地に対応付けて登録しておくことにより、その施設や観光地が対象地点とされた場合、その施設や観光地の特色を表したキャラクタにより送迎を行うことができる。これにより、その施設や観光地の宣伝効果を増大させることもできる。   In addition, since image data for character display can be acquired from a server on the network, for example, image data of a character created by a related party of a facility or a local government of a tourist spot is stored on the server. By registering in association with a facility or a sightseeing spot, when that facility or a sightseeing spot is set as a target point, it can be picked up by a character representing the characteristics of the facility or the sightseeing spot. Thereby, the advertising effect of the facility and the sightseeing spot can be increased.

図1は本発明の一実施形態に係るナビゲーションシステムの構成を示すブロック図である。同図に示されるように、このシステムは、入力操作を受け付ける入力操作部11、現在位置を検出する位置情報検出部12、設定された目的地に関する情報を格納する目的地情報記憶部13、登録地点に関する情報を格納する登録地点情報記憶部14、キャラクタの画像データを記憶する画像データ記憶部15、メッセージ用の音声データを記憶する音声データ記憶部16、画像や音声の出力を行う出力装置17、及び各部を制御する制御部18を備える。   FIG. 1 is a block diagram showing a configuration of a navigation system according to an embodiment of the present invention. As shown in the figure, this system includes an input operation unit 11 that receives an input operation, a position information detection unit 12 that detects a current position, a destination information storage unit 13 that stores information about a set destination, and a registration A registration point information storage unit 14 for storing information about the point, an image data storage unit 15 for storing character image data, an audio data storage unit 16 for storing voice data for messages, and an output device 17 for outputting images and sounds. And a control unit 18 for controlling each unit.

入力操作部11は、タッチパネルの押下や、ボタンやキーの操作に基づいて入力を受け付けたり、マイクを経て入力される音声信号について音声認識処理を施し、音声コマンド等の入力を受け付けたりするものである。登録地点情報記憶部14に記憶される登録地点とは、目的地や経由地の対象となり得る地点として予め登録された、施設、観光地、レストラン等の地点である。画像データ記憶部15の画像データによる各キャラクタは、出迎え用又は見送り用として表示されるものである。   The input operation unit 11 accepts input based on pressing of a touch panel or button or key operation, or performs speech recognition processing on an audio signal input via a microphone, and accepts input of an audio command or the like. is there. The registered points stored in the registered point information storage unit 14 are points such as facilities, sightseeing spots, restaurants, and the like that are registered in advance as points that can be targets of destinations and waypoints. Each character based on the image data in the image data storage unit 15 is displayed for the purpose of greeting or seeing off.

画像データ記憶部15及び音声データ記憶部16には複数のキャラクタについての画像データ及び音声データが対応付けて格納される。各音声データによるメッセージは、出迎え用又は見送り用として、表示中の対応キャラクタが発するかのようにして、音声出力部22から出力されるキャラクタメッセージである。位置情報検出部12はシステムが搭載された車両の現在位置をGPSにより検出するものである。目的地情報記憶部13、登録地点情報記憶部14、画像データ記憶部15、及び音声データ記憶部16は、ハードディスクやフラッシュメモリ等の記憶媒体を用いて構成される。なお、これらの記憶媒体にはまた、制御部18によるナビゲーション処理に必要なプログラムや地図データ等も記憶されている。   The image data storage unit 15 and the audio data storage unit 16 store image data and audio data for a plurality of characters in association with each other. The message based on each voice data is a character message output from the voice output unit 22 as if the corresponding character being displayed is uttered for the purpose of greeting or sending off. The position information detection unit 12 detects the current position of the vehicle on which the system is mounted by GPS. The destination information storage unit 13, the registration point information storage unit 14, the image data storage unit 15, and the audio data storage unit 16 are configured using a storage medium such as a hard disk or a flash memory. Note that these storage media also store programs, map data, and the like necessary for navigation processing by the control unit 18.

制御部18は、入力操作部11〜音声データ記憶部16からの情報に基づく情報処理を行い、画像データや音声データを出力部17に出力する。出力部17は、制御部18からの画像データに対し、所定の画像処理を施す画像処理部19、画像処理部19で処理されたデータに基づいて、地図やキャラクタ等の画像表示を行う表示部20、制御部18からの音声データに対し、所定の音声処理を施す音声処理部21、音声処理部21で処理されたデータに基づいて、案内音声やキャラクタメッセージ等の音声による出力を行う音声出力部22を備える。   The control unit 18 performs information processing based on information from the input operation unit 11 to the audio data storage unit 16 and outputs image data and audio data to the output unit 17. The output unit 17 performs an image processing unit 19 that performs predetermined image processing on the image data from the control unit 18, and a display unit that displays an image such as a map or a character based on the data processed by the image processing unit 19. 20, voice processing unit 21 for performing predetermined voice processing on the voice data from the control unit 18, and voice output for outputting voices such as guidance voices and character messages based on the data processed by the voice processing unit 21 The unit 22 is provided.

図2は、図1のシステムにおける制御部18による出迎え処理を示すフローチャートである。出迎え処理は、目的地情報記憶部13において記憶されている予め設定された目的地に到着する際に行われる。ここでは、目的地として、登録地点情報記憶部14において記憶されている予め登録された登録地点のうちの1つが設定されているものとする。   FIG. 2 is a flowchart showing the welcome processing by the control unit 18 in the system of FIG. The meeting process is performed when the vehicle arrives at a preset destination stored in the destination information storage unit 13. Here, it is assumed that one of registered points stored in advance in the registered point information storage unit 14 is set as the destination.

出迎え処理を開始すると、制御部18は、まず、ステップ31において、目的地に対する所定の近傍位置に到達するのを待機する。所定の近傍位置としては、たとえば、直線距離や経路長でみた場合における目的地から所定距離の位置や、表示部20で表示されている地図上で目的地が表示可能となるような位置が該当する。制御部18は、現在位置、目的地情報記憶部13に記憶されている目的地の位置情報、地図データ等に基づき、所定の近傍位置に到達したかどうかを検出することができる。   When the welcome process is started, the control unit 18 first waits at step 31 to reach a predetermined vicinity position with respect to the destination. Examples of the predetermined vicinity position include a position at a predetermined distance from the destination when viewed in terms of a straight line distance and a route length, and a position at which the destination can be displayed on the map displayed on the display unit 20. To do. The control unit 18 can detect whether or not a predetermined proximity position has been reached based on the current position, the position information of the destination stored in the destination information storage unit 13, map data, and the like.

所定の近傍位置に到達したことを検出したら、ステップ32において、図2中の(a)のように、予め出迎え用に設定されているキャラクタの表示を開始する。キャラクタの表示位置としては、たとえば、表示部20における表示画面上の予め定められた位置や、表示されている地図上の目的地に重なる位置が該当する。キャラクタの表示サイズは、目的地に到着したときに最終的に表示される本来の大きさよりもある程度小さくする。キャラクタの画像は単なる静止画でもよいし、アニメーション(動画)であってもよい。   When it is detected that the predetermined vicinity position has been reached, in step 32, display of a character set in advance for welcome is started as shown in FIG. As the display position of the character, for example, a predetermined position on the display screen in the display unit 20 or a position overlapping the destination on the displayed map is applicable. The display size of the character is made somewhat smaller than the original size that is finally displayed when it arrives at the destination. The character image may be a mere still image or an animation (moving image).

次に、ステップ33及び34において、図2中の(b)のように、目的地に到着するまでの間、目的地までの距離の減少に応じ、キャラクタの表示サイズを徐々に大きくしてゆく。ステップ34において、目的地に到着したことを検出すると、ステップ35へ進み、図2中の(c)のように、表示中のキャラクタに対応する出迎え用メッセージを再生し、音声出力部22から出力する。これにより、出迎え処理が終了する。出迎え用メッセージとしてはたとえば、「いらっしゃいませ。ようこそお越し下さいました。」が該当する。なお、目的地に到着したかどうかの判定は、目的地までの距離がたとえば100[m]以下になったかどうかや、変速ギヤがパーキング位置にシフトされたかどうか、サイドブレーキが引かれたかどうか等により行うことができる。   Next, in steps 33 and 34, as shown in FIG. 2B, the character display size is gradually increased as the distance to the destination decreases until the destination is reached. . If it is detected in step 34 that the vehicle has arrived at the destination, the process proceeds to step 35, where a greeting message corresponding to the displayed character is reproduced and output from the voice output unit 22 as shown in FIG. To do. Thereby, the welcome process is completed. An example of a greeting message is “Come here. Welcome!”. Whether or not the vehicle has arrived at the destination is determined based on whether the distance to the destination is, for example, 100 [m] or less, whether the transmission gear is shifted to the parking position, whether the side brake is applied, etc. Can be performed.

図3は制御部18による見送り処理を示すフローチャートである。見送り処理は、設定されている目的地を出発する際に行われる。見送り処理を開始すると、制御部18は、まず、ステップ41において、目的地からの出発が検出されるのを待機する。目的地を出発したことの検出は到着の検出の場合と同様に、目的地からの距離、変速ギヤの位置、サイドブレーキの状態等に基づいて行うことができる。   FIG. 3 is a flowchart showing the see-through process by the control unit 18. The see-through process is performed when leaving the set destination. When the see-off process is started, the control unit 18 first waits for detection of departure from the destination in step 41. The departure from the destination can be detected based on the distance from the destination, the position of the transmission gear, the state of the side brake, etc., as in the case of arrival detection.

目的地からの出発を検出すると、ステップ42へ進み、図3中の(a)のように、予め見送り用に設定されたキャラクタの画像表示を、表示部20において開始するとともに、表示中のキャラクタに対応する見送り用のメッセージを再生し、音声出力部22から出力する。キャラクタの表示位置としては、出迎え処理の場合と同様に、予め定められた位置や、地図上の目的地に重なる位置を採用することができる。見送り用メッセージとしてはたとえば、「ご利用ありがとうございました。またのお越しをお待ちしております。」が該当する。   When the departure from the destination is detected, the process proceeds to step 42, and as shown in (a) in FIG. 3, image display of the character set for see-off is started on the display unit 20 and the character being displayed is displayed. The message for see-through corresponding to is reproduced and output from the audio output unit 22. As the display position of the character, a predetermined position or a position overlapping the destination on the map can be adopted as in the case of the greeting process. For example, “Thank you for using the service. We ’re looking forward to seeing you again.”

次に、ステップ43及び44において、目的地からの距離の増大に応じ、キャラクタの表示サイズを小さくしてゆく。そして、ステップ44において、目的地から直線距離や経路長でみて所定距離離れたこと、又は登録地点を出発してから所定時間が経過したことを検出すると、ステップ45へ進み、図3中の(c)のように、キャラクタの表示を消去する。これにより、見送り処理を終了する。   Next, in steps 43 and 44, the display size of the character is reduced as the distance from the destination increases. In step 44, if it is detected that the distance from the destination is a predetermined distance in terms of a straight line distance or a route length, or that a predetermined time has elapsed since the departure from the registration point, the process proceeds to step 45, and ( As in c), the character display is erased. Thereby, the see-through process is completed.

本実施形態によれば、目的地との間の距離に応じてキャラクタの表示サイズを変化させるようにしたため、目的地までの距離を感覚的に認識することができる。また、目的地に到着したときや、目的地から出発する際に、キャラクタに出迎えや見送りをさせることによって、目的地として設定された地点に対する親近感をユーザに抱かせることができる。   According to this embodiment, since the display size of the character is changed according to the distance to the destination, the distance to the destination can be recognized sensuously. In addition, when the user arrives at the destination or departs from the destination, the user can be given a sense of familiarity with the point set as the destination by having the character meet and see off.

図4は本発明の別の実施形態に係るナビゲーションシステムの構成を示すブロック図である。このシステムは、図1のシステムに対し、制御部18が外部サーバ23との間で通信を行うための通信部24を追加したものである。通信部24は、無線による所定のアクセスポイントを経由し、インターネット等を経て外部サーバ23にアクセスする機能を備える。   FIG. 4 is a block diagram showing a configuration of a navigation system according to another embodiment of the present invention. This system is obtained by adding a communication unit 24 for the control unit 18 to communicate with the external server 23 to the system of FIG. The communication unit 24 has a function of accessing the external server 23 via the Internet or the like via a predetermined access point by radio.

外部サーバ23には、ナビゲーションシステムがダウンロードし、上述の出迎え処理や見送り処理において使用することができる多数のキャラクタについての画像データ及び音声データが格納されている。外部サーバ23における各キャラクタの画像データ及び音声データに対しては、必要に応じて、そのキャラクタを使用するのが望ましいとされる、対応地点に関する情報を付随させることができる。   The external server 23 stores image data and audio data for a large number of characters that are downloaded by the navigation system and can be used in the above-described welcome processing and send-off processing. The image data and audio data of each character in the external server 23 can be accompanied by information on corresponding points, where it is desirable to use the character, as necessary.

制御部18は、ユーザの指示に基づき、外部サーバ23に登録されている各キャラクタの画像データ及び音声データをダウンロードして表示し、ユーザによる選択を受け入れ、選択されたキャラクタの画像データ及び音声データを、画像データ記憶部15及び音声データ記憶部16において登録することができる。登録されたキャラクタの画像データ及び音声データは、上述の出迎え処理や見送り処理において使用される。その際、ユーザの設定を受け入れ、設定されたキャラクタの画像データ及び音声データを使用することができる。またその設定は、目的地毎に行うことができる。   The control unit 18 downloads and displays the image data and sound data of each character registered in the external server 23 based on the user's instruction, accepts the selection by the user, and selects the image data and sound data of the selected character. Can be registered in the image data storage unit 15 and the audio data storage unit 16. The registered image data and voice data of the character are used in the above-mentioned welcome process and send-off process. At that time, it is possible to accept the user's settings and use the image data and audio data of the set characters. The setting can be made for each destination.

図5は図4中の制御部18によるキャラクタ設定処理を示すフローチャートである。この処理は、設定される目的地についての上述の出迎え処理や見送り処理において表示するキャラクタの設定を行う処理の一例を示すものである。処理を開始すると、制御部18はまず、ステップ51において、ユーザからの指示に基づき、目的地の設定を行う。このときユーザは、登録地点情報記憶部14において登録されている各登録地点のうちから選択したものを目的地として設定したり、自宅を目的地として設定したりすることができる。なお、目的地の設定がなされると、目的地までの経路設定等の処理も行われる。   FIG. 5 is a flowchart showing the character setting process by the control unit 18 in FIG. This process shows an example of a process for setting a character to be displayed in the above-described welcome process and send-off process for the set destination. When the process is started, the control unit 18 first sets a destination in step 51 based on an instruction from the user. At this time, the user can set a destination selected from the registered points registered in the registered point information storage unit 14 or can set the home as the destination. When the destination is set, processing such as setting the route to the destination is also performed.

目的地の設定が完了すると、ステップ52において、制御部18は外部サーバ23にアクセスし、設定された目的地に対応するキャラクタについてのデータの有無を判定する。この判定は、外部サーバ23における上述の各キャラクタの画像データ及び音声データに付随する対応地点に関する情報を参照して行うことができる。対応地点に関する情報として目的地と合致するものが存在する場合、その対応地点に対応するキャラクタが、目的地に対応するキャラクタであるということになる。   When the setting of the destination is completed, in step 52, the control unit 18 accesses the external server 23, and determines the presence or absence of data for the character corresponding to the set destination. This determination can be made with reference to the information regarding the corresponding points accompanying the image data and voice data of each character described above in the external server 23. If there is information corresponding to the destination as information on the corresponding point, it means that the character corresponding to the corresponding point is the character corresponding to the destination.

目的地に対応するキャラクタのデータが存在すると判定した場合には、ステップ53に進んでその画像データ及び音声データをダウンロードする。さらに、ステップ54において、そのキャラクタを目的地についての送迎用のキャラクタとして設定するとともに、ダウンロードした画像データ及び音声データを、その目的地として設定されている登録地点に専用のキャラクタについてのデータとして、画像データ記憶部15及び音声データ記憶部16に登録する。これにより、キャラクタ設定処理を終了する。   If it is determined that character data corresponding to the destination exists, the process proceeds to step 53 to download the image data and audio data. Further, in step 54, the character is set as a pick-up character for the destination, and the downloaded image data and audio data are used as data for the character dedicated to the registration point set as the destination. The image data storage unit 15 and the audio data storage unit 16 are registered. This completes the character setting process.

ステップ52において目的地に対応するキャラクタのデータが外部サーバ23に存在しないと判定した場合には、予め定められた標準のキャラクタを設定し、キャラクタ設定処理を終了する。このようにして設定されたキャラクタに基づき、この後の出迎え処理及び見送り処理においては、対応する画像データ及び音声データが画像データ記憶部15及び音声データ記憶部16から読み出され、使用されることになる。   If it is determined in step 52 that the character data corresponding to the destination does not exist in the external server 23, a predetermined standard character is set, and the character setting process is terminated. Based on the character set in this way, the corresponding image data and audio data are read from the image data storage unit 15 and the audio data storage unit 16 and used in the subsequent greeting process and send-off process. become.

本実施形態によれば、外部サーバ23において、各キャラクタの画像データや音声データとして、そのキャラクタに対応付けられる地点の関係者や、その地点が所在する土地の自治体等が作成したものを登録しておくことにより、その地点が目的地として設定された場合、その地点の特色を表したキャラクタにより送迎を行うことができる。   According to the present embodiment, the external server 23 registers, as image data and sound data of each character, those created by the parties related to the character or the local government of the land where the point is located. Thus, when the point is set as the destination, the character can be picked up by the character representing the feature of the point.

図6は本発明のさらに別の実施形態に係るナビゲーションシステムにおける出迎え処理を示すフローチャートである。システムの構成図としては図1をそのまま適用することができる。ただし、画像データ記憶部15には画像データとして、アニメーション用のものが記憶される。   FIG. 6 is a flowchart showing a welcome process in a navigation system according to still another embodiment of the present invention. As a system configuration diagram, FIG. 1 can be applied as it is. However, the image data storage unit 15 stores animation data as image data.

出迎え処理を開始すると、制御部18は、まず、ステップ61において、目的地に対する所定の近傍位置に到達するのを待機する。図2のステップ31と同様の処理である。所定の近傍位置に到達したことを検出したら、ステップ62において、図6中の(a)のように、予め出迎え用に設定されている卵のキャラクタについてのアニメーション表示を開始する。   When the welcome process is started, the control unit 18 first waits at step 61 to reach a predetermined vicinity position with respect to the destination. This is the same processing as step 31 in FIG. When it is detected that a predetermined vicinity position has been reached, in step 62, animation display is started for an egg character that has been set in advance for reception, as shown in FIG. 6 (a).

次に、ステップ63及び64において、図2中の(b)のように、目的地に到着するまでの間、目的地までの距離の減少に反比例して卵が徐々に大きく揺れるように、アニメーション表示を変更してゆく。つまり、表示開始時ではほとんど揺れないが、到着直前では激しく揺れるような表示となる。ステップ64において、目的地に到着したことを検出すると、ステップ65へ進み、図6中の(c)のように、卵が孵るアニメーション表示を行い、孵った雛が出迎えるような感じで出迎え用メッセージを出力する。   Next, in steps 63 and 64, as shown in (b) in FIG. 2, the animation is performed so that the egg gradually shakes greatly in inverse proportion to the decrease in the distance to the destination until it reaches the destination. Change the display. In other words, the display hardly shakes at the start of display, but vigorously shakes immediately before arrival. If it is detected in step 64 that the vehicle has arrived at the destination, the process proceeds to step 65, where an egg roaring animation is displayed as shown in (c) of FIG. Is output.

本実施形態によれば、目的地への到着前には、よりリアルな感じで到着を予感させるとともに、到着時には到着をよりリアルな感じで実感させることができる。   According to this embodiment, before arrival at the destination, the arrival can be predicted with a more realistic feeling, and upon arrival, the arrival can be realized with a more realistic feeling.

なお、本発明は上述の実施形態に限定されることなく、適宜変形して実施することができる。たとえば、上述においては、出迎え処理及び見送り処理は、予め目的地として設定されている登録地点に到着する際及びその登録地点を出発する際に行われているが、この代わりに、目的地として設定されている自宅に到着する際、及び自宅から出発する際に行うようにしてもよい。その場合、出迎えメッセージとしては、たとえば「お帰りなさい。運転お疲れ様でした。」を用いることができる。また、見送りメッセージとしては、たとえば、「いってらっしゃい。気を付けてね。」を用いることができる。   In addition, this invention is not limited to the above-mentioned embodiment, It can deform | transform and implement suitably. For example, in the above description, the pick-up process and the send-off process are performed when arriving at and departing from a registered point set in advance as a destination, but instead set as a destination. It may be performed when the user arrives at the home and the user leaves the home. In that case, for example, “Please come home. Further, as the message to be sent off, for example, “Come here. Please be careful.” Can be used.

また、上述においては、出迎え用及び見送り用のキャラクタとして異なるものを使用しているが、この代わりに、出迎え用及び見送り用のキャラクタとして同一のものを使用するようにしてもよい。また、複数のキャラクタを用意しておき、昼、夜等の時間帯や、目的地との間の距離等に応じて使い分けるようにしてもよい。   In the above description, different characters are used for the greeting and the see-off character. Instead, the same character may be used as the greeting and the send-off character. Also, a plurality of characters may be prepared and used depending on the time zone such as daytime and night, the distance to the destination, and the like.

また、登録地点の種類別に異なるキャラクタを用意しておき、目的地とされた登録地点の種類別に異なるキャラクタを設定できるようにしてもよい。その場合、目的地として設定された登録地点が独自のキャラクタを有しているような施設等である場合、そのキャラクタを表示することができるとすれば、目的地に到着したときや、そこから出発する際の感慨がより深まるので、そのようなキャラクタを用いることができるように、登録地点にふさわしいキャラクタを用意しておくのが望ましい。また、ユーザが作成した画像や音声データを出迎え処理及び見送り処理におけるキャラクタやメッセージ用のものとして登録することができるようにして、目的地が自宅である場合のキャラクタには家族の画像を使用する等のようなカスタマイズを可能としてもよい。   Alternatively, different characters may be prepared for each type of registered spot, and different characters may be set for each type of registered spot that is set as the destination. In that case, if the registration point set as the destination is a facility that has its own character, and if the character can be displayed, it can be displayed when it arrives at the destination or from there. Since the feeling at the time of departure becomes deeper, it is desirable to prepare a character suitable for the registration point so that such a character can be used. In addition, the image and voice data created by the user can be registered as characters and messages for the greeting process and the see-off process, and the family image is used as the character when the destination is at home. It may be possible to customize such as.

また、上述においては、目的地との間の距離等に応じてキャラクタの表示サイズを変化させたり、アニメーションを変化させたりするようにしているが、この代わりに又はこれに加え、キャラクタの表情等を変化させ、目的地との間の距離感を表現するようにしてもよい。また、キャラクタの表示と並行して、目的地との間の距離を文字により、たとえば「あと1km」のように、表示するようにしてもよい。   In the above, the character display size is changed or the animation is changed according to the distance to the destination, etc., but instead of or in addition to this, the character's facial expression, etc. May be changed to express a sense of distance from the destination. In parallel with the display of the character, the distance from the destination may be displayed by characters, for example, “1 km”.

また、上述においては車載用のナビゲーションシステムに本発明を適用した場合について説明したが、本発明はこれに限られず、携帯用のナビゲーション装置や、ナビゲーション機能を有する携帯電話等に対しても適用することができる。   In the above description, the present invention is applied to an in-vehicle navigation system. However, the present invention is not limited to this, and the present invention is also applied to a portable navigation device, a mobile phone having a navigation function, and the like. be able to.

本発明の一実施形態に係るナビゲーションシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the navigation system which concerns on one Embodiment of this invention. 図1のシステムにおける制御部による出迎え処理を示すフローチャートである。It is a flowchart which shows the welcome process by the control part in the system of FIG. 図1のシステムにおける制御部による見送り処理を示すフローチャートである。It is a flowchart which shows the see-through process by the control part in the system of FIG. 本発明の別の実施形態に係るナビゲーションシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the navigation system which concerns on another embodiment of this invention. 図4中の制御部によるキャラクタ設定処理を示すフローチャートである。It is a flowchart which shows the character setting process by the control part in FIG. 本発明のさらに別の実施形態に係るナビゲーションシステムにおける出迎え処理を示すフローチャートである。It is a flowchart which shows the welcome process in the navigation system which concerns on another embodiment of this invention.

符号の説明Explanation of symbols

11:入力操作部、12:位置情報検出部、13:目的地情報記憶部、14:登録地点情報記憶部、15:画像データ記憶部、16:音声データ記憶部、17:出力装置、18:制御部、19:画像処理部、20:表示部、21:音声処理部、22:音声出力部、23:外部サーバ、24:通信部。

11: Input operation unit, 12: Position information detection unit, 13: Destination information storage unit, 14: Registration point information storage unit, 15: Image data storage unit, 16: Audio data storage unit, 17: Output device, 18: Control unit, 19: image processing unit, 20: display unit, 21: audio processing unit, 22: audio output unit, 23: external server, 24: communication unit.

Claims (4)

地図情報を表示する表示手段と、
前記表示手段において、登録された対象地点が表示可能となる位置に達したことを検出する検出手段と、
前記検出手段による検出がなされた時から前記対象地点に到着するまでの間、前記対象地点の特色を表すキャラクタを前記表示手段に表示させるとともに、前記対象地点に近づくに従い前記対象地点に近づいてゆくことが表現されるように、前記キャラクタの表示サイズを次第に大きく変化させるように前記表示手段に表示させる表示制御手段とを具備することを特徴とするナビゲーション装置。
Display means for displaying map information;
In the display means, detection means for detecting that the registered target point has reached a position where display is possible; and
Between when the detection by said detecting means is made to arrive to the point of interest, along with displaying a character representing the characteristic of the object point on the display unit, Yuku approaching the target point gets closer to the point of interest And a display control means for displaying on the display means so as to gradually change the display size of the character.
前記画像データ供給手段は、前記キャラクタ表示用の画像データを、所定のネットワーク上のサーバから取得する取得手段を有することを特徴とする請求項1に記載のナビゲーション装置。 2. The navigation apparatus according to claim 1, wherein the image data supply unit includes an acquisition unit that acquires the image data for character display from a server on a predetermined network. 請求項1又は2記載のナビゲーション装置における各手段としてコンピュータを機能させることを特徴とするナビゲーションプログラム。 A navigation program for causing a computer to function as each means in the navigation device according to claim 1. 地図情報を表示する表示手段において、登録された対象地点が表示可能となる位置に達したことを検出する検出ステップと、
前記検出ステップにおいて検出がなされた時から前記対象地点に到着するまでの間、前記対象地点の特色を表すキャラクタを前記表示手段に表示させるとともに、前記対象地点に近づくに従い前記対象地点に近づいてゆくことが表現されるように、前記キャラクタの表示サイズを次第に大きく変化させるように前記表示手段に表示させる表示制御ステップとを具備することを特徴とするナビゲーション方法。
A detection step of detecting that the registered target point has reached a position where it can be displayed in the display means for displaying the map information ;
Until arriving at the target point from the time the detection made in the detection step, along with displaying a character representing the characteristic of the object point on the display unit, Yuku approaching the target point gets closer to the point of interest A display control step of causing the display means to display the character so that the display size of the character is gradually changed.
JP2006069998A 2006-03-14 2006-03-14 Navigation device, program and method Expired - Fee Related JP4725375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006069998A JP4725375B2 (en) 2006-03-14 2006-03-14 Navigation device, program and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006069998A JP4725375B2 (en) 2006-03-14 2006-03-14 Navigation device, program and method

Publications (2)

Publication Number Publication Date
JP2007248162A JP2007248162A (en) 2007-09-27
JP4725375B2 true JP4725375B2 (en) 2011-07-13

Family

ID=38592646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006069998A Expired - Fee Related JP4725375B2 (en) 2006-03-14 2006-03-14 Navigation device, program and method

Country Status (1)

Country Link
JP (1) JP4725375B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170048240A (en) * 2015-09-29 2017-05-08 시아오미 아이엔씨. Navigation method and device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5097638B2 (en) * 2008-07-31 2012-12-12 富士通テン株式会社 On-vehicle navigation device, navigation system, and control method thereof
EP2500235B1 (en) 2009-11-12 2017-09-20 Mitsubishi Electric Corporation Screen image information delivery display system and screen image information delivery display method
JP6341438B2 (en) * 2017-01-24 2018-06-13 株式会社ユピテル In-vehicle electronic device and program
CN110495190B (en) * 2017-04-10 2021-08-17 雅马哈株式会社 Voice providing apparatus, voice providing method, and program recording medium
JP7393156B2 (en) * 2019-08-29 2023-12-06 株式会社Subaru Information processing device, information processing method, audio output system, program
JP7372230B2 (en) * 2020-12-21 2023-10-31 トヨタ自動車株式会社 Display system and display device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002039771A (en) * 2000-07-28 2002-02-06 Denso Corp Navigation system
JP2002168636A (en) * 2000-11-29 2002-06-14 Denso Corp Display device
JP2002257556A (en) * 2001-02-27 2002-09-11 Fujitsu Ten Ltd Navigation system
JP2002277260A (en) * 2001-03-16 2002-09-25 Aisin Aw Co Ltd Navigation apparatus
JP2004101227A (en) * 2002-09-05 2004-04-02 Denso Corp Car navigation apparatus
JP2005147925A (en) * 2003-11-18 2005-06-09 Hitachi Ltd On-vehicle terminal device, and information exhibiting method for vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002039771A (en) * 2000-07-28 2002-02-06 Denso Corp Navigation system
JP2002168636A (en) * 2000-11-29 2002-06-14 Denso Corp Display device
JP2002257556A (en) * 2001-02-27 2002-09-11 Fujitsu Ten Ltd Navigation system
JP2002277260A (en) * 2001-03-16 2002-09-25 Aisin Aw Co Ltd Navigation apparatus
JP2004101227A (en) * 2002-09-05 2004-04-02 Denso Corp Car navigation apparatus
JP2005147925A (en) * 2003-11-18 2005-06-09 Hitachi Ltd On-vehicle terminal device, and information exhibiting method for vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170048240A (en) * 2015-09-29 2017-05-08 시아오미 아이엔씨. Navigation method and device
KR101870052B1 (en) * 2015-09-29 2018-07-20 시아오미 아이엔씨. Navigation method and device, program and recording medium
US10267641B2 (en) 2015-09-29 2019-04-23 Xiaomi Inc. Navigation method and device

Also Published As

Publication number Publication date
JP2007248162A (en) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4725375B2 (en) Navigation device, program and method
US9464908B2 (en) Apparatus, system and method for clustering points of interest in a navigation system
US8706415B2 (en) Changing emphasis of list items in a map navigation tool
US9464909B2 (en) Apparatus, system and method for clustering points of interest in a navigation system
KR101829855B1 (en) Voice actions on computing devices
US6941224B2 (en) Method and apparatus for recording voice and location information
JP5676147B2 (en) In-vehicle display device, display method, and information display system
US20080147323A1 (en) Vehicle navigation system and method
US20100217482A1 (en) Vehicle-based system interface for personal navigation device
JP2017502872A (en) Method and apparatus for causing transmission of parking instructions
JP2010091578A (en) Method for operating navigation system for vehicle and navigation system
JP2010074215A (en) Communication device, information communication system, communication control method of communication device, and program
JP2010205130A (en) Control device
JP3752159B2 (en) Information recording device
JP2024028844A (en) System and program
JP2017204252A (en) System and program
JP2013250132A (en) On-vehicle device and on-vehicle information system
JP7250338B2 (en) System and program
KR101027148B1 (en) System and method for Guide Using POI handwriting
US20150192425A1 (en) Facility search apparatus and facility search method
JP2010066198A (en) In-vehicle information processing device, information processing method, and program
KR20060073168A (en) Navigation device for vehicle using electronical map and advertisement contents mapping method and method of advertising using thereof
JP2005308877A (en) Onboard electronic system and scrolling control method for same
JP2021032857A (en) Information processing device, information processing method, speech output system, and program
JP2005186797A (en) In-vehicle device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees