JP7250378B2 - System and program - Google Patents

System and program Download PDF

Info

Publication number
JP7250378B2
JP7250378B2 JP2022035045A JP2022035045A JP7250378B2 JP 7250378 B2 JP7250378 B2 JP 7250378B2 JP 2022035045 A JP2022035045 A JP 2022035045A JP 2022035045 A JP2022035045 A JP 2022035045A JP 7250378 B2 JP7250378 B2 JP 7250378B2
Authority
JP
Japan
Prior art keywords
character
yuru
chara
voice
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022035045A
Other languages
Japanese (ja)
Other versions
JP2022066474A (en
Inventor
卓也 西澤
裕一 梶田
繁 小野里
Original Assignee
株式会社ユピテル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019139389A external-priority patent/JP7042506B2/en
Application filed by 株式会社ユピテル filed Critical 株式会社ユピテル
Priority to JP2022035045A priority Critical patent/JP7250378B2/en
Publication of JP2022066474A publication Critical patent/JP2022066474A/en
Priority to JP2023039213A priority patent/JP7407489B2/en
Application granted granted Critical
Publication of JP7250378B2 publication Critical patent/JP7250378B2/en
Priority to JP2023208966A priority patent/JP2024022658A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示制御装置等に関し、特に、地図に関連する情報の案内を行う表示制御装置等に関する。 TECHNICAL FIELD The present invention relates to a display control device and the like, and more particularly to a display control device and the like for guiding information related to a map.

地図に関連する情報の案内を行う表示制御装置として、ナビゲーションシステムが知られている。ナビゲーションシステムは、一般には、液晶ディスプレイ等の表示手段に地図を表示し、さらに地図上に現在位置や、目的地までの経路などを表示する機能を有している。さらに、近隣の情報等、地図情報に付帯する様々な情報を提供する機能を有するナビゲーションシステムも提供されている。ナビゲーションシステムには、車載型、携帯型等の種類があり、スマートフォンにナビゲーション機能を搭載したナビゲーションシステムも使用されている。 A navigation system is known as a display control device that guides information related to a map. A navigation system generally has a function of displaying a map on a display means such as a liquid crystal display, and further displaying a current position, a route to a destination, and the like on the map. Further, navigation systems have been provided that have a function of providing various information incidental to map information, such as neighborhood information. There are various types of navigation systems, such as an in-vehicle type and a portable type, and a navigation system equipped with a navigation function on a smartphone is also used.

近時では、目的地までの経路等を単に案内するのではなく、移動を楽しく演出したり、利用者の遊び心をくすぐったりするような興趣性のある態様で案内を行うナビゲーションシステムが提案されている。例えば、特許文献1には、画面にキャラクタを表示し、このキャラクタを用いて情報の案内を行うナビゲーションシステムが開示されている。 In recent years, there have been proposed navigation systems that do not simply guide a route to a destination, but provide guidance in an interesting manner such as making the movement fun or tickling the user's playfulness. there is For example, Patent Literature 1 discloses a navigation system that displays a character on a screen and uses the character to guide information.

特開2012-242187号公報JP 2012-242187 A

特許文献1には、地図情報を表示するとともに、警報対象の位置情報で特定される位置と車両の現在位置が所定の接近関係を有する場合に、警報対象と関係のないキャラクタをアニメーション表示することで、警報対象の見落としを防止することができるナビゲーションシステムが開示されている。しかし、特許文献1は、地域との対応が規定されたキャラクタを表示することを開示するものではなく、また、興趣性を高める効果は充分ではない。 Japanese Patent Laid-Open No. 2002-200000 discloses a technique for displaying map information and displaying an animation of a character unrelated to a warning target when the position specified by the position information of the warning target and the current position of the vehicle have a predetermined close relationship. discloses a navigation system capable of preventing an alert target from being overlooked. However, Patent Literature 1 does not disclose the display of characters whose correspondence with regions is defined, and the effect of increasing interest is not sufficient.

上記のように、地域との対応が規定されたキャラクタを表示させることにより、表示制御装置による制御による情報の案内に高い興趣性を付与する工夫はなされてこなかった。 As described above, no effort has been made to add a high level of interest to the guidance of information controlled by the display control device by displaying a character whose correspondence to the region is defined.

本願には、例えば、下記各観点に記載の発明が開示される。
<観点1>
複数の地域を含む地図に関連する情報の案内を行う表示制御装置であって、
複数の前記地域との対応が規定された複数のキャラクタのいずれかの画像を表示手段に表示させる制御を行う制御手段を有することを特徴とする表示制御装置。
<観点2>
前記制御手段は、前記複数のキャラクタの全部又は一部からなる集合である許可キャラクタ群から選択される前記キャラクタの画像を前記表示手段に表示するものであり、
前記制御手段は、前記表示制御装置が前記キャラクタとの対応関係が規定された前記地域に移動したことを条件に、移動先の前記地域に対応する前記キャラクタを前記許可キャラクタ群に追加することを特徴とする表示制御装置。
<観点3>
前記制御手段は、前記複数のキャラクタの全部又は一部からなる集合である許可キャラクタ群から選択される前記キャラクタの画像を前記表示手段に表示するものであり、
前記制御手段は、前記表示制御装置が、所定の距離を移動したことを条件に、前記複数のキャラクタから選択されるいずれかの前記キャラクタを新たに前記許可キャラクタ群に追加することを特徴とする表示制御装置。
<観点4>
前記複数のキャラクタは、少なくとも一つのデフォルトキャラクタを含み、
前記許可キャラクタ群に前記キャラクタが含まれていない場合に、前記制御手段は、前記デフォルトキャラクタの画像を前記表示手段に表示することを特徴とする表示制御装置。
<観点5>
ユーザの操作に基づいて、異なる態様で前記キャラクタの選択を行うための複数のモードのいずれかを選択するモード選択手段を更に有し、
前記制御手段は、前記モード選択手段が選択した前記モードに従って選択される前記キャラクタを前記表示手段に表示することを特徴とする表示制御装置。
<観点6>
前記複数のモードが、第1モードを含み、
前記第1モードが選択された場合、前記制御手段は、ユーザが指定した前記キャラクタの画像を前記表示手段に表示することを特徴とする表示制御装置。
<観点7>
前記複数のモードが、第2モードを含み、
前記第2モードが選択された場合、前記制御手段は、前記表示制御装置が現在位置する前記地域に対応付けられた前記キャラクタの画像を前記表示手段に表示することを特徴とする表示制御装置。
<観点8>
前記複数のモードが、第3モードを含み、
前記第3モードが選択された場合、前記制御手段は、前記表示制御装置が所定の距離を移動する毎に、異なる前記キャラクタの画像を前記表示手段に表示することを特徴とする表示制御装置。
<観点9>
ユーザの操作に基づいて、表示モード又は非表示モードを選択する表示モード選択手段を更に有し、
前記制御手段は、前記表示モードが選択されたときには前記キャラクタの画像を前記表示手段に表示する制御を行い、前記非表示モードが選択されたときは前記キャラクタの画像を前記表示手段に表示する制御を行わないことを特徴とする表示制御装置。
The present application discloses, for example, the inventions described in the following aspects.
<Viewpoint 1>
A display control device for guiding information related to a map including a plurality of regions,
A display control device, comprising control means for controlling display means to display an image of one of a plurality of characters for which correspondence with a plurality of regions is defined.
<Viewpoint 2>
The control means displays on the display means an image of the character selected from a group of permitted characters, which is a set of all or part of the plurality of characters,
The control means adds the character corresponding to the destination area to the permitted character group on condition that the display control device has moved to the area where the correspondence relationship with the character is defined. A display controller characterized by:
<Viewpoint 3>
The control means displays on the display means an image of the character selected from a group of permitted characters, which is a set of all or part of the plurality of characters,
The control means newly adds one of the characters selected from the plurality of characters to the permitted character group on condition that the display control device has moved a predetermined distance. Display controller.
<Viewpoint 4>
the plurality of characters includes at least one default character;
A display control device, wherein the control means displays an image of the default character on the display means when the character is not included in the allowed character group.
<Viewpoint 5>
further comprising mode selection means for selecting one of a plurality of modes for selecting the character in different modes based on a user's operation;
The display control device, wherein the control means displays the character selected according to the mode selected by the mode selection means on the display means.
<Viewpoint 6>
wherein the plurality of modes includes a first mode;
A display control device, wherein when the first mode is selected, the control means displays an image of the character specified by the user on the display means.
<Viewpoint 7>
wherein the plurality of modes includes a second mode;
A display control device, wherein when the second mode is selected, the control means displays an image of the character associated with the area where the display control device is currently located on the display means.
<Viewpoint 8>
the plurality of modes includes a third mode;
A display control device, wherein when the third mode is selected, the control means displays a different image of the character on the display means each time the display control device moves a predetermined distance.
<Viewpoint 9>
further comprising display mode selection means for selecting a display mode or a non-display mode based on a user's operation;
The control means performs control to display the image of the character on the display means when the display mode is selected, and controls to display the image of the character on the display means when the non-display mode is selected. A display control device characterized by not performing

観点1の発明では、ユーザは、表示手段に表示されたキャラクタを見てそのキャラクタへの関心を持つようになるとともに、当該キャラクタと関連付けられた地域への関心を抱くことになり、ユーザに、地域に関連する情報の案内を受けることの動機付けを与えることができる。 In the first aspect of the invention, the user, looking at the character displayed on the display means, becomes interested in the character and becomes interested in the area associated with the character. Motivation can be given to receive guidance of information related to the region.

好ましい実施形態では、表示制御装置は、画像等を表示する表示手段を有すると良い。更に好ましい実施形態では、表示制御装置は、地域とキャラクタの対応関係をテーブル等の形式で記憶した対応記憶手段、表示制御装置の位置、移動距離を検出する位置検出手段、移動距離検出手段等を更に有すると良い。他の好ましい実施形態では、表示制御装置は、表示手段、対応記憶手段、位置検出手段、移動距離検出手段の全部又は一部を有さない。例えばこれらの手段は通常市販等される汎用品を用いることができる。 In a preferred embodiment, the display control device preferably has display means for displaying images and the like. In a further preferred embodiment, the display control device includes correspondence storage means for storing correspondences between regions and characters in the form of a table or the like, position detection means for detecting the position of the display control device, movement distance, movement distance detection means, and the like. It is good to have more. In another preferred embodiment, the display control device does not have all or part of the display means, correspondence storage means, position detection means, and movement distance detection means. For example, as these means, general-purpose products that are usually commercially available can be used.

地域は、地理的な領域であることが好ましい。各地域は、相互に重複しないことが好ましい。地域は、行政区画であることがより好ましく、都道府県や市町村であることが特に好ましい。 A region is preferably a geographical region. Each region preferably does not overlap each other. The regions are more preferably administrative divisions, and particularly preferably prefectures or municipalities.

キャラクタは、好ましくは、実在または架空の人や動物をかたどったシンボル、形象等であると良い。キャラクタは、例えば、地域(例えば、地方公共団体)が管理するキャラクタ(例えば、ご当地キャラクタ)であることが好ましい。キャラクタは、いわゆる、ゆるキャラであることが好ましい。ゆるキャラとしては、特に、地域おこし、名産品の紹介等のような地域のPRに使用するマスコットキャラクターとするとよい。特にかわいらしいイラスト等とするとよい。 A character is preferably a symbol, figure, or the like in the form of a real or fictitious person or animal. The character is preferably, for example, a character (eg, local character) managed by an area (eg, local government). The character is preferably a so-called loose character. The Yuru-chara is preferably a mascot character that is used for regional PR, such as regional revitalization and introduction of local products. A particularly cute illustration or the like is preferable.

複数の地域と複数のキャラクタの対応関係は、1対1、又は、1対多であることが好ましい。好ましい実施形態では、地図に含まれるすべての地域についてキャラクタとの対応が規定される。他の好ましい実施形態では、地図内の地域のうちの一部の地域(例えば、日本地図の47都道府県のうちの四国4県)のみについてキャラクタとの対応が規定される。 A correspondence relationship between a plurality of regions and a plurality of characters is preferably one-to-one or one-to-many. In a preferred embodiment, character correspondences are defined for all regions included in the map. In another preferred embodiment, correspondence with characters is defined only for some areas (for example, 4 prefectures in Shikoku out of 47 prefectures in the map of Japan) among the areas in the map.

情報の案内は、取り締まり等のイベントに関する情報の案内を含むことが好ましい。情報の案内は、目的地への経路案内であることが特に好ましい。情報の案内は、表示手段における画像の表示によって行うことが好ましい。 The guidance of information preferably includes guidance of information regarding events such as crackdowns. Information guidance is particularly preferably route guidance to a destination. Information guidance is preferably performed by displaying an image on the display means.

観点2の発明では、許可キャラクタ群から選択されるいずれかのキャラクタが表示手段に表示される。表示制御装置が新たな地域に移動することにより、移動先の地域に対応する新たなキャラクタが許可キャラクタ群に追加される(表示可能なキャラクタが増える)ため、地域から地域への移動をユーザに動機付けることができる。 In the second aspect of the invention, one of the characters selected from the permitted character group is displayed on the display means. When the display control device moves to a new area, a new character corresponding to the destination area is added to the allowed character group (the number of characters that can be displayed increases). can motivate.

許可キャラクタ群は、初期状態(例えば、工場出荷状態)で複数のキャラクタのうちの全部又は一部を含んでも良いが、初期状態では、許可キャラクタ群が複数のキャラクタのいずれも含まない(許可キャラクタ群が空集合である)ことが好ましい。許可キャラクタ群に一旦追加されたキャラクタは、許可キャラクタ群から削除しないことが好ましい。特に好ましくは、表示制御装置は、表示制御装置の電源が切断された場合でも、許可キャラクタ群のキャラクタを記憶保持する構成とすると良い。 The permitted character group may include all or some of the plurality of characters in the initial state (for example, factory shipment state), but in the initial state, the permitted character group does not include any of the plurality of characters (the permitted character group is the empty set). A character once added to the permitted character group is preferably not deleted from the permitted character group. Particularly preferably, the display control device is configured to store and hold the characters of the permitted character group even when the display control device is powered off.

好ましくは、各地域への移動は、位置検出手段からの情報に基づいて判断する構成すると良い。好ましくは、表示制御装置は、移動先の地域に対応するキャラクタが許可キャラクタ群に含まれていない場合にのみ、移動先の地域に対応するキャラクタを追加する処理を行うと良い。 Preferably, movement to each area is determined based on information from the position detection means. Preferably, the display control device performs the process of adding the character corresponding to the destination area only when the character corresponding to the destination area is not included in the permitted character group.

観点3の発明では、表示制御装置が所定の距離を移動することにより、新たなキャラクタが許可キャラクタ群に追加される(表示可能なキャラクタが増える)ため、より長い距離の移動をユーザに動機付けることができる。好ましくは、移動距離は、位置検出手段からの情報に基づいて算出すると良い。 In the third aspect of the invention, when the display control device moves a predetermined distance, a new character is added to the allowed character group (the number of characters that can be displayed increases), thereby motivating the user to move a longer distance. can be done. Preferably, the movement distance is calculated based on information from the position detection means.

表示制御装置は、観点2及び観点3の両方の構成を備えることが特に好ましい。これにより、観点2の発明における、同一地域でのみ移動するユーザは表示可能なキャラクタを増やすことができない、という問題が解決される。このように、観点2の発明において、前記表示制御装置が前記キャラクタとの対応関係が規定された前記地域に移動したという条件(第1の条件)とは異なる第2の条件が成立したときに、前記複数のキャラクタから選択されるいずれかの前記キャラクタを新たに前記許可キャラクタ群に追加することが好ましい。観点3と異なる好ましい第2の条件としては、表示制御装置の使用時間(例えば、累積使用時間)が所定時間になったという条件、表示制御装置の製造、出荷等の後の経過日数が所定日数等になったという条件等がある。 It is particularly preferable for the display control device to have both the configuration of the aspect 2 and the aspect 3. This solves the problem in the second aspect of the invention that a user who moves only in the same area cannot increase the number of characters that can be displayed. Thus, in the invention of aspect 2, when a second condition different from the condition (first condition) that the display control device has moved to the area in which the correspondence relationship with the character is defined is established , preferably one of the characters selected from the plurality of characters is newly added to the permitted character group. A second preferable condition different from the third aspect is the condition that the usage time (for example, cumulative usage time) of the display control device reaches a predetermined time, and the number of days elapsed after manufacture, shipment, etc. of the display control device is a predetermined number of days. There is a condition that it is equal.

観点4の発明では、許可キャラクタ群にキャラクタが含まれていない場合(例えば、工場出荷の時点における許可キャラクタ群が空集合である実施形態において工場出荷後初めて電源を投入した状態など)でもキャラクタの表示を行うことが可能となる。好ましい実施形態では、デフォルトキャラクタは、地域との対応が規定されないキャラクタとすると良い。他の好ましい実施形態では、デフォルトキャラクタは、いずれかの地域と対応が規定されたキャラクタである。 In the aspect 4 of the invention, even if characters are not included in the permitted character group (for example, in an embodiment in which the permitted character group at the time of shipment from the factory is an empty set, the power is turned on for the first time after shipment from the factory, etc.) It becomes possible to display. In a preferred embodiment, the default character should be a character for which region correspondence is not defined. In other preferred embodiments, the default character is a character that has a defined correspondence with any region.

観点5の発明では、ユーザは、表示するキャラクタの選択方法を選択することが可能となる。 In the fifth aspect of the invention, the user can select a method of selecting characters to be displayed.

観点6の発明では、ユーザは、許可キャラクタ群から任意に選択したキャラクタを表示させることが可能であり、随意性を高めることが可能となる。 In the sixth aspect of the invention, the user can display a character arbitrarily selected from the permitted character group, thereby increasing the degree of discretion.

観点7の発明では、表示制御装置が現在位置する地域に対応付けられたキャラクタが表示されるため、ユーザに地域間での移動を動機付けることができる。好ましくは、制御制御装置の現在位置は、位置検出手段からの情報に基づいて判断すると良い。 In the seventh aspect of the invention, since the character associated with the area where the display control device is currently located is displayed, it is possible to motivate the user to move between areas. Preferably, the current position of the controller is determined based on information from the position detection means.

観点8の発明では、表示制御装置が所定の距離を移動する毎に異なるキャラクタが表示されるため、ユーザにより長い距離の移動を動機付けることができる。好ましくは、移動距離は、位置検出手段からの情報に基づいて算出すると良い。 In the eighth aspect of the invention, a different character is displayed each time the display control device moves a predetermined distance, so that it is possible to motivate the user to move a longer distance. Preferably, the movement distance is calculated based on information from the position detection means.

観点7の発明における第2モードと観点8の発明における第3モードは、同時選択可能とすることが好ましい。これにより、異なる地域への移動又は所定距離の移動のいずれの条件が満たされた場合でも、表示キャラクタを変更することが可能になる。複数のモードは、観点6~8と異なるモードを含み得る。他の好ましいモードとしては、所定時間経過毎や時間帯毎に異なるキャラクタを表示するモードや、移動速度に応じて異なるキャラクタを表示するモードが考えられる。 It is preferable that the second mode in the seventh aspect of the invention and the third mode in the eighth aspect of the invention can be selected simultaneously. This makes it possible to change the displayed character regardless of whether the condition of movement to a different area or movement of a predetermined distance is satisfied. The plurality of modes may include modes different from aspects 6-8. Other preferred modes include a mode in which different characters are displayed each time a predetermined period of time elapses or each period of time, and a mode in which different characters are displayed according to the movement speed.

観点2又は3を引用する観点5~8の発明が特に好ましい。これにより、表示されるキャラクタとは独立に許可キャラクタ群のキャラクタの追加を行うことが可能となる。例えば、観点6の発明の表示制御装置において、ユーザが第1モードで特定のキャラクタのみを表示させていたとしても、移動した地域、距離等により許可キャラクタ群のキャラクタは追加されるため、ユーザが希望すれば、他のキャラクタを表示させることが可能である。 Inventions of aspects 5 to 8 that refer to aspects 2 or 3 are particularly preferred. This makes it possible to add characters to the permitted character group independently of the characters to be displayed. For example, in the display control device of the aspect 6 of the invention, even if the user displays only a specific character in the first mode, characters of the permitted character group are added depending on the area, distance, etc., which the user has moved. Other characters can be displayed if desired.

観点9の発明では、ユーザの好みにより、キャラクタを非表示にすることも可能となる。 In the ninth aspect of the invention, it is also possible to hide the character according to the user's preference.

次のように構成するとよい。
<観点A>
前記キャラクタの画像が前記表示手段に表示されていない状態から前記キャラクタの画像が表示される状態に変化する際に、当該キャラクタの画像とともに当該キャラクタの名称を所定時間表示した後、当該名称を非表示にする処理を行うとよい。特に、当該キャラクタの名称とともに、当該キャラクタが対応する地域の情報も前記所定時間表示した後、非表示にするとよい。
It should be configured as follows.
<Viewpoint A>
When the state in which the image of the character is not displayed on the display means changes to the state in which the image of the character is displayed, the name of the character is displayed together with the image of the character for a predetermined time, and then the name is hidden. It is preferable to perform processing for displaying. In particular, together with the name of the character, the information of the region to which the character corresponds may be hidden after being displayed for the predetermined time.

このようにすれば、キャラクタの登場により、ユーザの視線を表示手段のキャラクタに惹きつけることができるとともに、当該キャラクタの名称や当該キャラクタの対応する地域を知ることができ、当該キャラクタについてより深く知ることができるとともに、当該キャラクタの対応する地域への関心も呼び起こすことができる。しかも、所定時間経過後は、キャラクタの名称や対応する地域の情報は消去され、キャラクタが表示されることとなるから、背景にある情報(例えば地図情報)の表示の妨げになりにくくなるとともに、当該キャラクタの名称や対応する地域を忘れた場合、それらが表示されない状態となることで、すぐにその答えが分からないことになるから、次の登場が待ち遠しくなるという効果を奏する。
特にキャラクタが表示されていない状態から表示される状態への変化は、キャラクタの動きを伴って行うとよい。特に、画面の端部から徐々にキャラクタが画面の中央部へ向けて移動しながら表示される態様とするとよい。このようにするとキャラクタの登場を印象ずけることができるとともに、ユーザの視線を表示手段へより惹きつけやすくなる。
In this way, the appearance of the character can attract the user's line of sight to the character on the display means, and the name of the character and the region to which the character corresponds can be known, and the character can be known more deeply. In addition, interest in the character's corresponding area can also be aroused. Moreover, after a predetermined period of time has passed, the character name and corresponding area information are erased, and the character is displayed. When the name of the character or the corresponding area is forgotten, the characters are not displayed, so that the answer cannot be found immediately, so that the next appearance becomes impatient.
In particular, the change from the state in which the character is not displayed to the state in which the character is displayed should be accompanied by the movement of the character. In particular, it is preferable that the character is displayed while gradually moving from the edge of the screen toward the center of the screen. By doing so, it is possible to impress the appearance of the character, and it becomes easier to attract the user's line of sight to the display means.

<観点B>
前記キャラクタの画像が前記表示手段に表示されていない状態から前記キャラクタの画像が表示される状態に変化する際、または、前記キャラクタの画像が前記表示手段に表示されている状態から前記キャラクタの画像が表示されない状態に変化する際の少なくともいずれか一方において、キャラクタがユーザに向けて挨拶をする動作を行う表示制御をとするとよい。
このようにすれば、キャラクタへの愛着が増すとともに、その対応する地域への愛着を呼び起こす可能性がさらに高まる。
<観点C>
音声による情報の出力を行う機能と、前記キャラクタの表示を行うか否かを選択する選択機能を備え、前記選択機能によって、キャラクタの表示を行わないと選択されている場合には、前記音声の出力を、キャラクタに関連しない音声で出力し、キャラクタの表示を行うと選択されている場合には、前記音声の出力を表示している当該キャラクタの音声で行うとよい。
<Viewpoint B>
When changing from a state in which the image of the character is not displayed on the display means to a state in which the image of the character is displayed, or from a state in which the image of the character is displayed on the display means to an image of the character Display control may be performed such that the character greets the user at least one of the times when the character changes to a state in which the character is not displayed.
In this way, attachment to the character increases, and the possibility of awakening attachment to the area corresponding to the character increases.
<Viewpoint C>
It has a function of outputting information by voice and a selection function of selecting whether or not to display the character. In the case where it is selected to output the voice unrelated to the character and to display the character, the voice of the character being displayed may be used for the output of the voice.

<観点D>
前記表示手段に表示中のキャラクタが話をしない設定のキャラクタである場合には、共通のキャラクタ用の音声で情報を出力するとよい。
<Viewpoint D>
When the character being displayed on the display means is a character set not to talk, it is preferable to output the information in a common voice for the character.

<観点E>
前記キャラクタの音声による情報の出力は、キャラクタのイメージに合う情報の出力の際に行うようにし、キャラクタのイメージに合わない情報の出力の際には当該キャラクタとは別の音声による情報の出力をするとよい。例えば、取り締まりの警告を出力する場合には当該キャラクタの音声の出力を行わないようにするとよく、この場合、当該キャラクタの音声以外の音声で取り締まりの警告を行うようにするとよい。
このようにすれば、キャラクタのイメージを保ちつつ、必要な警報を得ることができる。
<Viewpoint E>
The output of the information by voice of the character is performed when the information matching the image of the character is output, and when the information not matching the image of the character is output, the information is output by a voice different from that of the character. do it. For example, when outputting a crackdown warning, it is preferable not to output the character's voice. In this case, the crackdown warning may be issued by a voice other than the character's voice.
In this way, a necessary warning can be obtained while maintaining the image of the character.

<観点E>
前記キャラクタと前記地域との対応は、当該キャラクタの活動する地域よりも広い地域とするとよい。このようにすれば、より広い地域の中の特定の地域への注目を高めることができる。特に、観点7の構成を備えるとよい。例えば、キャラクタが市の振興のためのキャラクタである場合、地域は市よりも広い県とするとよい。このようにすれば、ある県に入った場合にその県の中にある特定の市に対応するキャラクタが表示されることになるため、その県の中で特にその県の中の特定の市への興味を持たせ、その県に入った時に、その市へ向かいたくなる動機付けとなる。
<Viewpoint E>
The correspondence between the character and the area may be an area wider than the area in which the character is active. In this way, it is possible to increase attention to a specific area within a wider area. In particular, it is preferable to have the configuration of aspect 7. For example, if the character is a character for promotion of a city, the region should be a prefecture that is wider than the city. In this way, when entering a certain prefecture, a character corresponding to a specific city within that prefecture will be displayed. It will motivate people to want to go to the city when they enter the prefecture.

<観点F>
取得した現在位置に関連する地域に対応するキャラクタを表示する機能を備え、現在位置が取得できる状態から現在位置が取得できない状態となった場合に、現在位置が取得できない状態となる前に表示していたキャラクタの表示を維持する機能を備えるとよい。
このようにすれば、現在位置が取得できなくなった場合に、キャラクタが突然表示されなくなることを防止できる。特に現在位置の取得をGPSによって行う場合に優れた効果を発揮する。
<Viewpoint F>
It has a function to display a character corresponding to the area related to the acquired current position, and if the current position becomes unacquirable from the state where the current position can be acquired, it will be displayed before the current position cannot be acquired. It is preferable to have a function to maintain the display of the character that was previously displayed.
In this way, it is possible to prevent the character from suddenly disappearing when the current position cannot be obtained. This is especially effective when the current position is acquired using GPS.

<観点G>
前記情報の出力をキャラクタによって行うキャラクタモードと、前記情報の出力をキャラクタによって行わない標準モードと、前記キャラクタモードと前記標準モードとを切り替える切り替え機能とを備え、前記表示モードにおいては、観点2、観点3の条件の判定を行わないようにするとよい。
このようにすれば、キャラクタモードにしているときだけ、許可キャラクタ群が更新されることになるので、例えば他人に当該表示制御装置を設置した車両等を貸与する場合に標準モードとしておけば、他人によって許可キャラクタ群が更新されることなく、他人に邪魔されずに、自己のペースで許可キャラクタ群を更新させていくことができる。
<Viewpoint G>
a character mode in which the information is output by a character; a standard mode in which the information is not output by the character; and a switching function for switching between the character mode and the standard mode. It is preferable not to judge the condition of viewpoint 3.
In this way, the permitted character group is updated only when the character mode is set. It is possible to update the permitted character group at one's own pace without being disturbed by others without updating the permitted character group by.

<観点H>
前記キャラクタが表示手段に表示されている状態で当該キャラクタの表示箇所へのユーザのタッチを検出する機能を備え、当該キャラクタへのタッチが検出された場合に当該キャラクを消去し、当該キャラクタを表示させていた箇所に別の情報を表示する制御を行うとよい。
このようにすれば、キャラクタへのタッチにより、当該キャラクタを消去して別の情報を表示させることができる。
<Viewpoint H>
Equipped with a function of detecting a user's touch on a display position of the character while the character is displayed on a display means, and when a touch on the character is detected, the character is erased and the character is displayed. It is preferable to perform control to display other information in the place where the information was displayed.
In this way, by touching the character, the character can be erased and other information can be displayed.

<観点I>
前記キャラクタについての情報の表示画面を表示させるためのボタン、または、前記キャラクタの表示制御に関する設定を表示画面させるためのボタンに現在地図画面上への表示対象となっているキャラクタを表示させるとよい。
このようにすれば、実際に地図画面に戻る操作等をしなくても、メニュー画面等のボタンに表示されたキャラクタをみて、現在の地図上への表示対象のキャラクタを知ることができる。
<Viewpoint I>
It is preferable that the character currently being displayed on the map screen is displayed on the button for displaying the information display screen about the character or the button for displaying the settings related to the display control of the character. .
In this way, the character to be displayed on the current map can be known by looking at the character displayed on the button of the menu screen or the like without actually performing an operation to return to the map screen.

<観点J>
前記キャラクタの属性を文字情報で表示する画面を表示する機能を備え、前記複数のキャラクタ間で、同一の属性についての説明情報を備え、当該同一の属性を示す表示情報を異なるものとするとよい。例えば、キャラクタの「名称」という属性aについて、キャラクタAは「名前」と表示してその名前をその属性の後に表示し、キャラクタBは「愛称」と表示してその名前をその近傍に表示する。例えば、キャラクタの「年令」という属性bについて、キャラクタAは「年齢」と表示してその年令をその近傍に表示し、キャラクタBは「うまれ」と表示してその年令をその近傍に表示する。
このようにすれば、複数のキャラクタそれぞれの世界観を壊すことなく、複数のキャラクタに共通する属性について、相互の理解を深めることが可能となる。
<Viewpoint J>
It is preferable that a function of displaying a screen displaying the attributes of the character by character information is provided, explanatory information about the same attribute is provided among the plurality of characters, and display information indicating the same attribute is different. For example, for an attribute a of a character "name", character A displays "name" and its name is displayed after the attribute, character B displays "nickname" and its name is displayed near it. . For example, for the character attribute b of "age", character A displays "age" and its age is displayed near it, and character B displays "born" and its age is displayed near it. indicate.
By doing so, it is possible to deepen mutual understanding of attributes common to a plurality of characters without destroying the world view of each of the plurality of characters.

<観点K>
前記複数の地域を一覧できる画面を表示する機能を備え、前記許可キャラクタ群に存在するキャラクタが対応する地域の表示態様と、前記許可キャラクタ群に存在しないキャラクタが対応する地域の表示態様とを異なる表示態様とするとよい。
このようにすれば、どの地域のキャラクタが許可キャラクタ群に入っているのかが容易に把握できる。例えば、全キャラクタ群に対する許可キャラクタ群の取得状況を容易に把握することもできる。例えば、日本地図を表示し、地域を47都道府県とし、キャラクタと地域とを1対1に対応させる構成の場合、日本地図を各県に区切って表示を行い、当該各県のうち、許可キャラクタ群に入っているキャラクタが対応する県については、網掛けでの塗りつぶし表示を行わず、許可キャラクタ群に入っているキャラクタが対応する県については、網掛けでの塗りつぶし表示を行うようにするとよい。
<Viewpoint K>
A function is provided for displaying a screen on which a list of the plurality of regions can be listed, and the display mode of the regions corresponding to the characters existing in the permitted character group is different from the display mode of the regions corresponding to the characters not existing in the permitted character group. It is preferable to set it as a display mode.
In this way, it is possible to easily grasp which region's characters are included in the permitted character group. For example, it is possible to easily grasp the acquisition status of permitted character groups for all character groups. For example, when a map of Japan is displayed, the regions are 47 prefectures, and the character and the region correspond to each other on a one-to-one basis, the map of Japan is divided into each prefecture and displayed. The prefectures to which the characters in the group correspond should not be shaded, and the prefectures to which the characters in the permitted character group correspond should be shaded. .

<観点L>
時報を音声で出力させる機能を備え、当該時報の報知の際に、時刻とともに、所定の文言を、当該表示中のキャラクタの音声で出力するとよい。
<Viewpoint L>
It is preferable that a function for outputting the time signal by voice is provided, and when the time signal is announced, the time and a predetermined word are output by the voice of the character being displayed.

<観点M>
すべてのキャラクタが前記許可キャラクタ群になった場合に、所定の演出を行うとよい。この演出はコンプリート演出とするとよい。例えば、すべてのキャラクタを取得できたことを祝う演出とするとよい。その際に、しゃべることができる設定のキャラクタとしゃべることができない設定のキャラクタとが許可キャラクタ群内に存在し、しゃべることができきるキャラクタの音声で前記所定の演出を行うとよい。内容としては、すべてのキャラクタが対応する地域を代表する領域のキャラクタが許可キャラクタ群に入ったことを示す情報を含むとよい。例えば、前記すべてのキャラクタが、47都道府県のキャラクタである場合には「全国制覇じゃー」といった具合に、すべてのキャラクタが対応する地域を代表する領域が全国であることを出力するとよい。所定の演出を行った後は、元のキャラクタによる情報の出力画面へ戻る構成とするとよい。
<Viewpoint M>
A predetermined effect may be performed when all the characters are included in the permitted character group. This production should be a complete production. For example, it is preferable to create an effect to celebrate that all the characters have been acquired. At this time, it is preferable that a character set to be able to speak and a character set to be unable to speak exist in the allowed character group, and the predetermined effect is performed by the voice of the character who can speak. The content may include information indicating that the character in the area representing the region to which all the characters correspond has entered the permitted character group. For example, when all the characters are characters of 47 prefectures, it is preferable to output that the region representing the region to which all the characters correspond is the whole country, such as "Conquer the whole country!". After performing the predetermined effect, it is preferable to return to the information output screen of the original character.

<観点N>
前記情報の案内として目的地までの経路案内機能と、前記目的地まで実際は走行していない状況において仮想の走行を行って経路案内を行う機能であるデモ走行機能とを備え、デモ走行機能の場合には、観点2、3における移動とみなさない構成とするとよい。このようにすれば、デモ走行によって、キャラクタが次々と許可キャラクタ群に追加されることを防止できる。
<Viewpoint N>
A route guidance function to a destination as the information guidance, and a demonstration driving function that provides route guidance by performing virtual driving in a situation where the vehicle is not actually driven to the destination, and in the case of the demonstration driving function Therefore, it is preferable to adopt a configuration that does not consider the movement in the viewpoints 2 and 3. By doing so, it is possible to prevent characters from being added one after another to the permitted character group due to the demonstration run.

観点1から9、観点AからNは、構成要素間に矛盾が発生しない限り、任意に組み合わせて表示制御装置を構成することができる。その際、当業者の通常の創作能力を発揮して固有の顕著な効果を奏する組み合わせによる具体的構成を導くとよい。また、上述した表示制御装置の機能をコンピュータに実現させるプログラムとして構成するとよい。 Aspects 1 to 9 and A to N can be arbitrarily combined to form a display control device as long as there is no contradiction between constituent elements. At that time, it is advisable for a person skilled in the art to use his/her ordinary creative ability to derive a specific configuration based on a combination that produces a unique and remarkable effect. Further, it is preferable to construct a program that causes a computer to realize the functions of the display control device described above.

本発明の実施の形態に係るナビゲーション装置の外観図である。1 is an external view of a navigation device according to an embodiment of the present invention; FIG. 本発明の実施の形態に係るナビゲーション装置のブロック図である。1 is a block diagram of a navigation device according to an embodiment of the present invention; FIG. 図3(a)は、例示的なゆるキャラ情報を示す。図3(b)は、例示的な許 可キャラクタリストを示す。FIG. 3(a) shows exemplary Yuru-chara information. FIG. 3(b) shows an exemplary allowed character list. 図4は、経路案内イベントについて規定された例示的な第1音声対応テーブ ルを示す。FIG. 4 shows an exemplary first voice correspondence table defined for route guidance events. 図5は、経路案内イベントについて規定された例示的な第2音声対応テーブ ルを示す。FIG. 5 shows an exemplary second voice correspondence table defined for route guidance events. 図6は、POIイベントについて規定された例示的な第3音声対応テーブル を示す。FIG. 6 shows an exemplary third audio correspondence table defined for POI events. 図7は、例示的な動作対応テーブルをFIG. 7 shows an exemplary action correspondence table 図8(a)は、例示的なメインメニュー画面を示す。図8(b)は、例示的 なナビメニュー画面を示す。FIG. 8(a) shows an exemplary main menu screen. FIG. 8(b) shows an exemplary navigation menu screen. 図9(a)は、例示的なモード切替画面を示す。図9(b)は、例示的な案 内画面を示す。図9(c)は、例示的なモード切替画面を示す。図9(d)は、例示 的な案内画面を示す。FIG. 9(a) shows an exemplary mode switching screen. FIG. 9(b) shows an exemplary guidance screen. FIG. 9(c) shows an exemplary mode switching screen. FIG. 9(d) shows an exemplary guidance screen. 図10(a)は、例示的な検索画面を示す。図10(b)は、例示的な登 録・編集画面を示す。図10(c)は、例示的な登録・編集画面を示す。FIG. 10(a) shows an exemplary search screen. FIG. 10(b) shows an exemplary registration/edit screen. FIG. 10(c) shows an exemplary registration/edit screen. 図11は、例示的なゆるキャラ取得処理のフローチャートを示す。FIG. 11 shows a flowchart of exemplary Yuru-chara acquisition processing. 図12は、例示的な表示モード選択処理のフローチャートを示す。FIG. 12 shows a flowchart of an exemplary display mode selection process. 図13は、例示的なゆるキャラ選択処理のフローチャートを示す。FIG. 13 shows a flowchart of exemplary Yuru-chara selection processing. 図14は、例示的な音声出力処理のフローチャートを示す。FIG. 14 shows a flowchart of exemplary audio output processing. 図15は、例示的な音声出力/キャラクタ表示処理のフローチャートを示 す。FIG. 15 shows a flowchart of exemplary audio output/character display processing. 図16(a)は、例示的なゆるキャラ画面を示す。図16(b)は、例示 的なゆるキャラ情報画面を示す。FIG. 16(a) shows an exemplary Yuru-chara screen. FIG. 16(b) shows an exemplary Yuru-chara information screen. 図17(a)は、例示的なゆるキャラ一覧画面を示す。図17(b)は、 例示的な全国ゆるキャラ図鑑画面を示す。FIG. 17(a) shows an exemplary Yuru-chara list screen. FIG. 17(b) shows an exemplary National Yuru-chara picture book screen. 図18は、例示的なコンプリート演出処理のフローチャートを示す。FIG. 18 shows a flowchart of an exemplary completion rendering process. 図19は、例示的な補助付き案内画面を示す。FIG. 19 shows an exemplary assisted guidance screen.

以下、本発明の表示制御装置を車載型のナビゲーション装置に適用した実施形態を説明する。 An embodiment in which the display control device of the present invention is applied to an in-vehicle navigation device will be described below.

[基本構成]
図1は、本発明のシステムを構成する電子機器として好適なナビテーション装置の一実施形態の外観図を示しており、図2は、その機能ブロック図を示している。図1に示すように、ナビゲーション装置1は、持ち運び可能な携帯型の装置本体2と、それを保持する取付部材たるクレードル3とを備える。装置本体2をクレードル3に装着することで、車載用として機能し、クレードル3から取り外すことで携帯型のナビゲーション装置(PND)として機能する。本実施形態は、装置本体2をクレードル3に着脱可能とし、クレードル3と共に車両のダッシュボード上に設置して利用したり、クレードル3から装置本体2を取り外して携帯型(PND)として利用したりすることができるタイプであるが、クレードル3に対して簡単に着脱できない車載固定タイプでも良いし、携帯型専用のものでもよい。さらには、例えば携帯電話などの携帯端末に所定のアプリケーションプログラムをインストール(プリインストールを含む)して実現されるものでもよい。アプリケーションプログラムは、ナビゲーションを行うためのシステム自身でも良いし、ナビゲーションを行うためのシステムが実装されているサーバにアクセスし、当該システムを利用するためのプログラムでも良い。本発明は、係る各種のタイプのナビゲーションシステムに適用できる。
[Basic configuration]
FIG. 1 shows an external view of an embodiment of a navigation device suitable as an electronic device constituting the system of the present invention, and FIG. 2 shows its functional block diagram. As shown in FIG. 1, the navigation device 1 includes a portable device main body 2 and a cradle 3 that is a mounting member for holding it. When the device body 2 is attached to the cradle 3, it functions as a vehicle-mounted device, and when it is removed from the cradle 3, it functions as a portable navigation device (PND). In this embodiment, the device main body 2 can be attached to and detached from the cradle 3, and the device main body 2 can be installed on the dashboard of the vehicle together with the cradle 3 and used, or the device main body 2 can be removed from the cradle 3 and used as a portable type (PND). Although it is a type that can be used, it may be a vehicle-fixed type that cannot be easily attached to and detached from the cradle 3, or it may be a dedicated portable type. Furthermore, it may be realized by installing (including pre-installing) a predetermined application program in a mobile terminal such as a mobile phone. The application program may be the navigation system itself, or may be a program for accessing a server on which the navigation system is installed and using the system. The present invention is applicable to various types of such navigation systems.

装置本体2は、クレードル3に対して着脱自在に取り付けられる。装置本体2は、扁平な矩形状のケース本体4を備えている。そのケース本体4の前面には、表示部5が配置され、その表示部5上には表示部5のどの部分がタッチされたかを検出するタッチパネル8を備え、前面の両サイドには警報ランプ9を備えている。クレードル3は、装置本体2を保持するクレードル本体6と、車室内の所定の位置(ダッシュボード等)において、クレードル本体6を任意の姿勢で支持する台座部7と、を備えている。台座部7は、底面に設けた吸盤にて、ダッシュボードなどの上に吸着して固定される。台座部7とクレードル本体6とは、ボールジョイント等の連結機構を介して所定の角度範囲内で回転可能に連結される。ボールジョイントであるため、台座部7とクレードル本体6は、相対的に三次元方向の任意の角度範囲内で回転移動し、ジョイント部分における摩擦抵抗により任意の角度位置でその位置をとどめる。よって、クレードル本体6に取り付けられた装置本体2も、ダッシュボード上において任意の姿勢で配置することができる。 The device main body 2 is detachably attached to the cradle 3 . The apparatus main body 2 includes a flat rectangular case main body 4 . A display unit 5 is arranged on the front surface of the case body 4, and a touch panel 8 is provided on the display unit 5 for detecting which part of the display unit 5 is touched, and alarm lamps 9 are provided on both sides of the front surface. It has The cradle 3 includes a cradle body 6 that holds the device body 2, and a pedestal 7 that supports the cradle body 6 in an arbitrary posture at a predetermined position (dashboard or the like) inside the vehicle. The pedestal portion 7 is fixed by suction on a dashboard or the like with a suction cup provided on the bottom surface. The pedestal 7 and the cradle body 6 are rotatably connected within a predetermined angular range via a connecting mechanism such as a ball joint. Since it is a ball joint, the pedestal 7 and the cradle body 6 can relatively rotate within an arbitrary angular range in three-dimensional directions, and remain in that position at an arbitrary angular position due to the frictional resistance of the joint portion. Therefore, the device main body 2 attached to the cradle main body 6 can also be arranged in any posture on the dashboard.

さらにケース本体4の一方の側面には、SDメモリカード用スロット部21を備え、そのSDメモリカード用スロット部21に地図データなどが記録されたSDメモリカード22を挿入可能としている。このSDメモリカード用スロット部21は、挿入されたSDメモリカード22に対して情報の読み書きを行うメモリカードリーダライタを含む。また、ケース本体4のSDメモリカード用スロット部21を設けた側面には、DCジャック10を設けている。DCジャック10は、図示省略のシガープラグコードを接続するためのもので、そのシガープラグコードを介して車両のシガーソケットに接続して電源供給を受け得るようにする。 Further, an SD memory card slot portion 21 is provided on one side surface of the case body 4, and an SD memory card 22 in which map data and the like are recorded can be inserted into the SD memory card slot portion 21. The SD memory card slot section 21 includes a memory card reader/writer for reading and writing information on the inserted SD memory card 22 . A DC jack 10 is provided on the side of the case main body 4 where the SD memory card slot 21 is provided. The DC jack 10 is for connecting a cigar plug cord (not shown), and is connected to a cigar socket of a vehicle via the cigar plug cord so that power can be supplied.

一方、SDメモリカード用スロット部21とは反対側の側面には、電源スイッチや、USB端子23を設けている。このUSB端子23を介してパソコンと接続し、ソフトウェアアプリケーションのバージョンアップなどを行なうことができる。 On the other hand, a power switch and a USB terminal 23 are provided on the side surface opposite to the SD memory card slot portion 21 . It is possible to connect to a personal computer via the USB terminal 23 and perform software application upgrades.

ケース本体4の内部には、以下の各機器・部品を配置している。すなわち、ケース本体4の背面側内部には、マイクロ波受信機11を配置する。マイクロ波受信機11は、所定周波数帯のマイクロ波を受信するもので、その設定された周波数帯のマイクロ波を受信した場合に、その受信したマイクロ波の信号レベルを検出する。具体的には、その信号レベルであり電界強度に対応するRSSI電圧を利用する。上記の所定周波数帯は、たとえば車両速度測定装置から出射されるマイクロ波の周波数が含まれる周波数帯としている。 Inside the case main body 4, the following devices and parts are arranged. That is, the microwave receiver 11 is arranged inside the back side of the case body 4 . The microwave receiver 11 receives microwaves in a predetermined frequency band, and upon receiving microwaves in the set frequency band, detects the signal level of the received microwaves. Specifically, the RSSI voltage corresponding to the signal level and electric field strength is used. The above predetermined frequency band is, for example, a frequency band that includes the frequency of microwaves emitted from a vehicle speed measuring device.

また、ケース本体4の上面側内部には、GPS信号を受信し現在位置を求めるGPS受信機12を配置している。ケース本体4の前面側内部には、赤外線通信機14を配置する。赤外線通信機14は携帯電話機15等の赤外線通信機を内蔵した通信装置との間でデータの送受を行なう。さらに、ケース本体4内には、スピーカ20も内蔵されている。 A GPS receiver 12 for receiving GPS signals and determining the current position is arranged inside the upper surface of the case body 4 . An infrared communication device 14 is arranged inside the front side of the case body 4 . The infrared communication device 14 transmits and receives data to and from a communication device having an infrared communication device such as a cellular phone 15 or the like. Furthermore, a speaker 20 is also built in the case main body 4 .

更に、ナビゲーション装置1は、無線受信機13とリモコン受信機16を備えている。リモコン受信機16は、リモコン(携帯機:子機)17とデータ通信をし、ナビゲーション装置1に対する各種の設定を行なう。無線受信機13は、飛来する所定周波数帯の無線を受信する。この所定周波数は、例えば、緊急車両が基地局に対して自車位置を通知する際に使用する無線の周波数帯とすることができる。 Furthermore, the navigation device 1 has a radio receiver 13 and a remote control receiver 16 . A remote controller receiver 16 performs data communication with a remote controller (portable device: child device) 17 and performs various settings for the navigation device 1 . The radio receiver 13 receives incoming radio waves in a predetermined frequency band. This predetermined frequency can be, for example, a radio frequency band used when an emergency vehicle notifies a base station of its own vehicle position.

また、ナビゲーション装置1は、ルート案内、周囲に存在する車両速度測定装置その他の交通監視ポイント等の目標物の報知等を目的として、各種のイベント発生毎に案内音声を出力するナビゲーション機能を有する。本実施形態では、案内音声の出力モードとして、地図情報等の案内画面にキャラクタを表示せずに案内音声を出力する通常モードに加え、案内画面にいわゆるゆるキャラ(ご当地キャラクタ)を表示した状態で案内音声を出力するゆるナビモードを備える。通常モード及びゆるナビモードは、制御部18が実行するプログラムとして制御部18のEEPROM上に格納され、これを制御部18が実行することで実現される。 The navigation device 1 also has a navigation function of outputting a guidance voice at each occurrence of various events for the purpose of route guidance, notification of target objects such as vehicle speed measuring devices and other traffic monitoring points existing in the surroundings. In this embodiment, in addition to the normal mode in which the guidance voice is output without displaying the character on the guidance screen such as the map information, the so-called Yuru-chara (local character) is displayed on the guidance screen as the guidance voice output mode. Equipped with Yuru Navi mode that outputs guidance voice. The normal mode and Yuru-navi mode are stored in the EEPROM of the control unit 18 as programs to be executed by the control unit 18, and are realized by the control unit 18 executing the programs.

データベース19は、制御部18のマイコン内あるいはマイコンに外付けした不揮発性メモリ(たとえばEEPROM)により実現できる。データベース19には、出荷時に一定の目標物や地図その他の各機能を実施するために必要な情報が登録されており、その後に追加された目標物についてのデータ等は、所定の処理を経て更新することができる。 The database 19 can be realized by a non-volatile memory (for example, EEPROM) inside the microcomputer of the control unit 18 or externally attached to the microcomputer. In the database 19, certain landmarks, maps, and other information necessary for implementing each function are registered at the time of shipment, and the data of the landmarks added after that are updated after predetermined processing. can do.

データベース19には、表示部において種々のキャラクタを表示するためのゆるキャラ画像データを記憶している。ゆるキャラ画像データは、複数の地域(47都道府県)と1対1で対応付けられた47種類のゆるキャラと、1種類のデフォルトキャラクタを後述の案内画面GV(図9(b),(d)に例示する案内画面GV1,GV2)に表示するためのデータである。ゆるキャラ画像データは、後述の動作データに従ってアニメーション表示が可能な3Dモデルのデータであり得る。 The database 19 stores Yuru-chara image data for displaying various characters on the display unit. Yuru-chara image data includes 47 types of yuru-chara that are associated one-to-one with a plurality of regions (47 prefectures) and one type of default character displayed on a guide screen GV (see FIGS. 9B and 9D). ) is data to be displayed on the guidance screens GV1 and GV2) illustrated in FIG. Yuru-chara image data can be 3D model data that can be displayed in animation according to action data described later.

データベース19には、更に、47種類のゆるキャラに関するゆるキャラ情報が記憶されている。図3(a)は、例示的なゆるキャラ情報を示す。図示のように、ゆるキャラ情報には、47種類のゆるキャラと47の都道府県の対応関係が規定されている。管理団体は、各ゆるキャラの管理を行う、例えば、地方公共団体である。 The database 19 further stores Yuru-chara information about 47 types of Yuru-chara. FIG. 3(a) shows exemplary Yuru-chara information. As shown in the figure, the Yuru-chara information defines correspondence relationships between 47 types of Yuru-chara and 47 prefectures. The management body is, for example, a local public body that manages each yuru-chara.

ゆるキャラ情報は、更に、各ゆるキャラの特性等に関する設定情報を規定したフィールドデータDA~DEを有する。フィールドデータDA~DEは、それぞれ固有の、例えば、15~300程度の文字数制限を有する。 The yuru-chara information further includes field data DA to DE defining setting information regarding the characteristics of each yuru-chara. The field data DA-DE each have their own limit on the number of characters, for example, about 15-300.

多くのゆるキャラ(例えば、半分以上のゆるキャラ)については、フィールドデータDAには、名前、フィールドデータDBには、出身、フィールドデータDCには、性別、フィールドデータDDには、誕生日、フィールドデータDEには、プロフィールといった具合に標準の属性のデータが規定されている。 For many yuru-chara (for example, more than half of yuru-chara), the field data DA contains the name, the field data DB contains the hometown, the field data DC contains the gender, the field data DD contains the birthday, the field Data DE defines standard attribute data such as a profile.

ただし、ゆるキャラの種類によっては、フィールドデータDAにあだ名が規定され、フィールドデータDBに出没場所が規定されるなど、標準と異なる属性が規定されるものもある。更には、フィールドデータDDにプロフィールの一部が規定され、フィールドデータDEにプロフィールの残りの部分が規定されるものもある。このように、フィールドデータDA~DFの属性を自由に設定できるようにしたことで、多様な特性を有するゆるキャラの適切な説明が容易となっている。 However, depending on the type of yuru-chara, there are some that define attributes different from the standard, such as a nickname defined in the field data DA and a haunting place defined in the field data DB. Furthermore, there is also a field data DD that defines a part of the profile and a field data DE that defines the remaining part of the profile. By allowing the attributes of the field data DA to DF to be freely set in this way, it is easy to appropriately explain Yuru-chara, which has various characteristics.

47個種類のゆるキャラは、一定の条件で案内画面GVでの表示が許可される。新たに案内画面GVでの表示が許可されることを、本願では、ゆるキャラを「取得する」と呼ぶ場合がある。本願では、案内画面GVでの表示が許可されたゆるキャラの集合を、「許可キャラクタ群」と呼ぶ場合がある。案内画面GVでの表示が許可されたゆるキャラは、図3(b)に例示する許可キャラクタリストに追加される。制御部18は、許可キャラクタリストに含まれるゆるキャラは、案内画面GVでの表示が許可されていると判断し、そうでなければ、許可されていないと判断する。また、制御部18は、全てのゆるキャラを取得した(コンプリートした)場合、即ち、許可キャラクタリストに47番目のゆるキャラが追加された際に、コンプリート演出を実行する。 The 47 types of Yuru-chara are permitted to be displayed on the guidance screen GV under certain conditions. In the present application, the fact that the display on the guidance screen GV is newly permitted is sometimes referred to as "acquiring" the Yuru-chara. In the present application, a group of Yuru-chara permitted to be displayed on the guidance screen GV may be referred to as a "permitted character group". Yuru-chara permitted to be displayed on the guidance screen GV is added to the permitted character list illustrated in FIG. 3(b). The control unit 18 determines that the Yuru-chara included in the permitted character list is permitted to be displayed on the guidance screen GV, and otherwise determines that it is not permitted. In addition, when all yuru-charas are acquired (completed), that is, when the 47th yuru-chara is added to the permitted character list, the control unit 18 executes a completion effect.

また、データベース19には、各種のイベント発生毎にスピーカ20から出力される案内音声の音声データ及びゆるキャラの動作を規定した動作データが記憶されている。動作データには、案内音声が出力されていない間にゆるキャラが行う定常動作を規定した定常動作データと、案内音声の出力中にゆるキャラが行う複数の特定動作を規定した特定動作データがある。定常動作は、例えば、ゆるキャラが右を向いたり左を向いたりをゆっくり繰り返すなど、ユーザの注意を強くは引かない動作とすることができる。特定動作の動作データは、大きく右を向く動作、ジャンプする動作、喜ぶ動作、いやがる動作等、ゆるキャラが行う動作等、特徴的な動きが合計で15個種類が規定されている。 The database 19 also stores voice data of guidance voices output from the speaker 20 each time various events occur, and motion data defining motions of yuru-chara characters. There are two types of action data: regular action data that defines regular actions that the yuru-chara performs while the guidance voice is not output, and specific action data that defines multiple specific actions that the yuru-chara performs while the guidance voice is being output. . The regular motion can be a motion that does not strongly attract the user's attention, such as a Yuru-chara slowly repeating turning to the right and turning to the left, for example. A total of 15 types of characteristic motions are defined for the motion data of the specific motions, such as motions of turning to the right, jumping, happy motions, displeased motions, and motions performed by mascot characters.

更に、データベース19には、後述のナビゲーション動作で案内される各種のイベントと案内音声及び特定動作の関係を規定した音声対応テーブル(第1~第3音声対応テーブル)及び動作対応テーブルが記憶されている。 Further, the database 19 stores a voice correspondence table (first to third voice correspondence tables) and an action correspondence table that define the relationship between various events, guidance voices, and specific actions guided by navigation actions, which will be described later. there is

イベントは、目的地までの経路の案内を行う際に案内することが必要な経路案内イベントと、サービスエリアや名所についてのお知らせや、事故多発地帯や検問エリア等の警告など、経路案内と関係性の低いPOI(Point of Interest)イベントといったカテゴリに分けられており、音声対応テーブルは、カテゴリ毎のものが記憶されている。 Events include route guidance events that require guidance when providing route guidance to the destination, and information related to route guidance, such as notifications about service areas and famous places, and warnings about accident-prone areas and checkpoint areas. are classified into categories such as POI (Point of Interest) events with low values, and the audio correspondence table is stored for each category.

また、案内音声として出力される音声には、通常モードで使用する通常音声と、特定のゆるキャラ(以下、「特定ゆるキャラ」と言う。本実施形態では、静岡県と対応付けられた「出世大名家康くん(登録商標)」の名称のゆるキャラが特定ゆるキャラに設定されている。)が表示される際に使用する本人音声と、それ以外のゆるキャラを表示した際に使用するゆるキャラ音声の3種類がある。これらの音声は、各音声対応テーブルで規定されるフレーズを声優やアナウンサ(以下、「声優等」)が発話したものを録音した録音データを再生することにより出力される。 In addition, the voice output as the guide voice includes the normal voice used in the normal mode and a specific Yuru-chara (hereinafter referred to as a “specific Yuru-chara”). Daimyo Ieyasu-kun (registered trademark)" is set as a specific loose character.) is displayed, and the loose character used when other loose characters are displayed. There are three types of voice. These voices are output by reproducing recorded data obtained by recording phrases defined in each voice correspondence table by a voice actor or an announcer (hereinafter referred to as "voice actor, etc.").

図4,5,は、経路案内イベントについて規定された例示的な第1,第2音声対応テーブルを示す。図4に示すように、第1音声対応テーブルでは、イベント番号、フレーズ番号、案内時間、通常音声フレーズ及びゆるキャラ音声フレーズが規定される。図5に示すように、第2音声対応テーブルでは、イベント番号、フレーズ番号、案内時間及び本人音声フレーズが規定される。第1、第2音声対応テーブルにおいて、イベント番号は、イベントの種類毎に付された番号(又は記号)である。イベントの種類は、例えば、500種類程度ある。フレーズ番号は、フレーズ毎に付された番号である。案内時間は、案内音声の出力に掛かる時間を示す。通常音声フレーズ、ゆるキャラ音声フレーズ及び本人音声フレーズは、それぞれ、通常音声、ゆるキャラ音声及び本人音声として出力される音声のテキスト表示である。 4 and 5 show exemplary first and second voice correspondence tables defined for route guidance events. As shown in FIG. 4, the first audio correspondence table defines an event number, a phrase number, guidance time, normal audio phrases, and Yuru-chara audio phrases. As shown in FIG. 5, the second voice correspondence table defines the event number, phrase number, guidance time, and person's voice phrase. In the first and second audio correspondence tables, the event number is a number (or symbol) attached to each type of event. There are, for example, about 500 types of events. A phrase number is a number assigned to each phrase. The guidance time indicates the time it takes to output the guidance voice. The normal voice phrase, the Yuru-chara voice phrase, and the original voice phrase are text representations of voices output as the normal voice, the Yuru-chara voice, and the original voice, respectively.

図から判るように、通常音声フレーズは、ですます調の比較的改まった表現であるのに対し、ゆるキャラ音声フレーズ及び本人音声フレーズは、親しみ易く、くだけた、或いは、個性のある表現となっている。なお、録音データ作成の際にも、通常音声は、通常音声フレーズを、アナウンサが標準的又は改まった口調で発話したものを録音するのに対し、ゆるキャラ音声及び本人音声は、ゆるキャラ音声フレーズ及び本人音声フレーズを声優等が、親しみのある、なれなれしい、ゆるい、ため口風の、或いは、個性のある口調で発話したものが録音される。 As can be seen from the figure, the normal voice phrases are more and more formal expressions, while the yuru-chara voice phrases and the original voice phrases are friendly, informal, or unique expressions. ing. Also, when creating the recording data, the normal voice is recorded by the announcer speaking the normal voice phrase in a standard or formal tone, while the yuru-chara voice and the person's voice are the yuru-chara voice phrases. And the voice phrases of the person himself/herself are recorded by a voice actor or the like in a familiar, familiar, loose, and unique tone.

また、ゆるキャラ音声フレーズ及び本人音声フレーズには、案内すべき情報に加え、その情報に関連する付加情報が含まれる場合がある。例えば、時刻報知のイベント(例えば、イベント413)についてのゆるキャラ音声フレーズ及び本人音声フレーズでは、報知するべき時刻の情報(「正午です」、「正午じゃ」)に加えて、付加情報(「おなかすいたヨ~」、「ウナ丼でも、食べるかのー」)が含まれている。 In addition to the information to be guided, the yuru-chara voice phrase and the person's own voice phrase may include additional information related to the information. For example, in the Yuru-chara voice phrase and the person's voice phrase for a time announcement event (for example, event 413), in addition to information on the time to be notified ("It's noon", "It's noon"), additional information ("I'm hungry Sukitayo~” and “Can I eat even Una-don?”).

また、本人音声フレーズは、特定ゆるキャラに対応する地域と関連する情報、宣伝、勧誘等を含み得る。例えば、目的地に接近したイベントであるイベント392に対応して、「目的地じゃ。・・・この次は、***にも来て欲しいのじゃ。」等の本人音声フレーズを規定することができる。この場合、「***」は、特定ゆるキャラに対応する地域の地名(例えば、静岡県)等である。これにより、今回の目的地以外の場所に勧誘することができる。「***」をワイルドカードにして、該当イベントの発生回数、発生時期、その時点での表示モード等に応じて「***」に対応する語句を変更することも考えられる。 Also, the person's voice phrase may include information, advertisements, solicitations, etc. related to the region corresponding to the specific Yuru-chara. For example, in response to the event 392, which is an event of approaching the destination, the person himself/herself voice phrase such as "It's the destination. ... I want you to come to *** next time." can be done. In this case, "***" is the name of the area corresponding to the specific Yuru-chara (for example, Shizuoka prefecture). As a result, the user can be invited to a place other than the current destination. It is also conceivable to use "***" as a wild card and change the word corresponding to "***" according to the number of occurrences of the event, the time of occurrence, the display mode at that time, and the like.

また、各イベントについてのフレーズ数は、通常音声の場合は1つであるのに対し、ゆるキャラ音声及び本人音声の場合は複数の場合がある。ゆるキャラが表示されている場合の案内音声を多様化したものである。個性のある表現、口調の音声は、耳についてユーザに記憶され易いので、ユーザの飽きを軽減する必要が高いことが一つの理由である。 Also, the number of phrases for each event is one in the case of the normal voice, but may be plural in the case of the Yuru-chara voice and the person's voice. It is a diversification of the guidance voice when Yuru-chara is displayed. One of the reasons for this is that it is highly necessary to reduce user boredom because unique expressions and tone-of-speech voices tend to be memorized by the user.

単一のイベントについて複数のフレーズが規定されている場合、当該イベントが生じる毎に順次異なるフレーズが選択されて案内音声が出力される。フレーズの選択は、順次的に行うのではなく、ランダムでも良い。 When a plurality of phrases are defined for a single event, different phrases are sequentially selected each time the event occurs, and a guidance voice is output. Phrases may be selected randomly instead of sequentially.

更に、ゆるキャラ音声及び本人音声に関しては、イベント毎にフレーズ数が相違する。例えば、イベント391(案内開始のイベント)については、フレーズ数が4個であるのに対し、イベント393(リルートのイベント)については、フレーズ数が10個となっている。これは、発生頻度の高いイベントである程、同一フレーズが頻繁に出力されることによるユーザの飽きを軽減する必要が高くなるためである。 Furthermore, the number of phrases for the Yuru-chara voice and the person's voice differs for each event. For example, the event 391 (guidance start event) has four phrases, while the event 393 (reroute event) has ten phrases. This is because the more frequently the event occurs, the more it is necessary to reduce the user's boredom due to frequent output of the same phrase.

図6は、POIイベントについて規定された例示的な第3音声対応テーブルを示す。 FIG. 6 shows an exemplary third audio correspondence table defined for POI events.

第3音声対応テーブルにおけるイベント番号、フレーズ番号、案内時間、通常音声フレーズの意味は、第1音声対応テーブルと同様である。図から判るように、各POIイベントに関しては、通常音声フレーズのみが規定され、ゆるキャラ音声フレーズ及び本人音声フレーズは規定されていない。従って、POIイベントが発生したときには、通常音声での案内音声が常に出力され、ゆるキャラ音声及び本人音声による案内音声は出力されない。これは、POIイベント(特に、警告のイベント)は、その性質からゆるキャラ音声等によるくだけた案内がなじまない場合が多いことを考慮したものである。 The meanings of the event number, phrase number, guide time, and normal voice phrase in the third voice correspondence table are the same as in the first voice correspondence table. As can be seen from the figure, for each POI event, only normal voice phrases are defined, and Yuru-chara voice phrases and original voice phrases are not defined. Therefore, when a POI event occurs, the guidance voice in the normal voice is always output, and the guidance voice in the Yuru-chara voice and the person's voice is not output. This is because POI events (particularly warning events) are often unfamiliar to informal guidance by yuru-chara voice or the like due to their nature.

図7は、例示的な動作対応テーブルを示す。図示のように、図4~6の第1~第3音声対応テーブルに規定されたフレーズ番号毎に、動作番号が規定されている。動作番号は、ローマ字で示される態様部(right等)と数字で示される時間部(03等)から構成される。態様部は、特定動作データの種類を規定する。時間部は、その特定動作が継続する時間を示している。この動作対応テーブルにより、案内音声として出力される音声のフレーズ番号(第1~第3音声対応テーブルのフレーズ番号)が決まれば、ゆるキャラの行う特定動作が一意に決定される。なお、上記の通り、特定動作は全部で15種類であるが、このうち、右を向く動作等の表示頻度の高い特定動作については、異なる複数の態様で右を向く動作(right及びright1)が用意されている。 FIG. 7 shows an exemplary action correspondence table. As shown, an action number is defined for each phrase number defined in the first to third voice correspondence tables of FIGS. The action number consists of a mode part (such as right) indicated by Roman characters and a time part (such as 03) indicated by numbers. The mode section defines the type of specific action data. The time part indicates how long the specific action lasts. If the action correspondence table determines the phrase number of the voice output as the guidance voice (the phrase numbers of the first to third voice correspondence tables), the specific action performed by the Yuru-chara is uniquely determined. As mentioned above, there are 15 types of specific actions in total. Of these, specific actions that are frequently displayed, such as the action of turning to the right, are performed in a plurality of different modes (right and right1). prepared.

次に、上記構成を有するナビゲーション装置1の動作を説明する。
<メニュー操作>
前述のように、ナビゲーション装置1は、通常モードとゆるナビモードとを備え、これらのモードは、制御部18が表示部5へのタッチ操作等に応答して切り替える。
Next, the operation of the navigation device 1 having the above configuration will be described.
<Menu operation>
As described above, the navigation device 1 has a normal mode and a loose navigation mode, and these modes are switched by the control unit 18 in response to a touch operation on the display unit 5 or the like.

ナビゲーション装置1の電源をオンにした際に表示部5に表示される図8(a)のメインメニュー画面において「ナビ」ボタンをタッチすると、図8(b)のナビメニュー画面が表示される。 When the "navigation" button is touched on the main menu screen of FIG. 8(a) displayed on the display unit 5 when the power of the navigation device 1 is turned on, the navigation menu screen of FIG. 8(b) is displayed.

動作モードが通常モードのときに、ユーザがナビメニュー画面から「モード切替」ボタンを選択すると、図9(a)に例示するモード切替画面が表示され、ユーザが「YES」ボタンを選択すると、動作モードがゆるナビモードに切り換えられる。ゆるナビモードでは、図9(b)に例示するように、地図情報等とともにゆるキャラの画像Cを表示した案内画面GV1を用いたナビゲーションが行われる。動作モードがゆるナビモードのときに、ユーザがナビメニュー画面から「モード切替」ボタンを選択すると、図9(c)に例示するモード切替画面が表示され、ユーザが「YES」ボタンを選択すると、動作モードが通常モードに切り換えられる。通常モードでは、図9(d)に例示するように、ゆるキャラの画像Cを表示せずに、地図情報等だけを表示した案内画面GV2を用いたナビゲーションが行われる。 When the user selects the "mode switching" button from the navigation menu screen when the operation mode is the normal mode, the mode switching screen exemplified in FIG. 9A is displayed, and when the user selects the "YES" button, the operation The mode can be switched to loose navigation mode. In the yuru-navi mode, as shown in FIG. 9B, navigation is performed using a guidance screen GV1 displaying an image C of a yuru-chara together with map information and the like. When the user selects the "switch mode" button from the navigation menu screen when the operation mode is the loose navigation mode, the mode switching screen shown in FIG. 9(c) is displayed. The operating mode is switched to normal mode. In the normal mode, as illustrated in FIG. 9(d), navigation is performed using a guidance screen GV2 that displays only map information and the like without displaying the Yuru-chara image C. FIG.

図9(a)、(c)に示した切替画面は、切り換えた場合(「YES」を選択した場合)に移行する動作モードをユーザがイメージし易いように、背景、文字フォント、アイコン等に移行先の動作モードに適合したデザインのものを使用することが好ましい。例えば、図9(a)の切替画面では、マンガチックなデザイン、おとぎ話的デザインを使用し、図9(b)の切替画面では、都会的なデザイン、都会的なデザインを使用する等である。 The switching screens shown in FIGS. 9(a) and 9(c) have backgrounds, character fonts, icons, etc., so that the user can easily imagine the operation mode to be shifted to when switching (when "YES" is selected). It is preferable to use a design adapted to the destination operation mode. For example, the switching screen in FIG. 9(a) uses a cartoonish design and a fairy tale design, and the switching screen in FIG. 9(b) uses an urban design and an urban design.

なお、ナビメニュー画面で「検索」ボタンをタッチすると、図10(a)の検索画面が表示され、目的地の検索等を行うことができる。ナビメニュー画面で「登録・編集」ボタンをタッチすると、図10(b)の登録・編集画面が表示され、ルート編集、登録地点の設定、履歴の表示等を行うことができる。また、ナビメニュー画面で「設定」ボタンをタッチすると、図10(c)の登録・編集画面が表示され、交差点拡大図やレーダー画面、OBD(On-Board Diagnostics)情報に基づくメータ画面等の補助画面の優先順位の設定等を行うことができる。 When the "Search" button is touched on the navigation menu screen, the search screen shown in FIG. When the "registration/edit" button is touched on the navigation menu screen, the registration/edit screen shown in FIG. In addition, when the "Setting" button is touched on the navigation menu screen, the registration/editing screen shown in Fig. 10(c) is displayed. Screen priority can be set.

<ゆるキャラの取得>
図11は、動作モードとして上記ゆるキャラモードが選択されている場合に、ナビゲーション装置1により常時実行されるゆるキャラ取得処理を示す。なお、ゆるキャラ取得処理は、動作モードがゆるキャラモードの場合にのみ実行され、通常モードのときは、実行されない。
<Acquisition of Yuru-chara>
FIG. 11 shows Yuru-chara acquisition processing that is always executed by the navigation device 1 when the Yuru-chara mode is selected as the operation mode. Note that the Yuru-chara acquisition process is executed only when the operation mode is the Yuru-chara mode, and is not executed in the normal mode.

制御部18は、所定周期、通常1秒周期で、GPS受信機15により、測位処理を行うことでナビゲーション装置1の現在位置を取得する(ステップS11)。 The control unit 18 acquires the current position of the navigation device 1 by performing positioning processing using the GPS receiver 15 at a predetermined cycle, usually a one-second cycle (step S11).

次に、制御部18は、測位処理により求めた現在位置が属する地域(都道府県)を特定する(ステップS12)。
次に、データベース19上の許可キャラクタリスト(図3(b))を参照し、ステップS12で特定した都道府県と対応付けられたゆるキャラが取得済みであるか否かを判別する(ステップS13)。
取得済みでない場合(ステップS13;No)、特定した都道府県に対応するゆるキャラを、許可キャラクタリストに追加する(ステップS14)。
Next, the control unit 18 identifies the area (prefecture) to which the current position obtained by the positioning process belongs (step S12).
Next, referring to the permitted character list (FIG. 3(b)) on the database 19, it is determined whether or not Yuru-chara associated with the prefecture specified in step S12 has already been acquired (step S13). .
If not acquired (step S13; No), the Yuru-chara corresponding to the specified prefecture is added to the permitted character list (step S14).

なお、ステップS13で、特定した都道府県のゆるキャラを取得済みであると判別した場合には(ステップS13;Yes)、ステップS14をスキップする。 If it is determined in step S13 that the Yuru-chara of the specified prefecture has been acquired (step S13; Yes), step S14 is skipped.

続いて、制御部18は、前回の測位処理と今回の測位処理の間に、電源オフがあったか否かを判別する(ステップS15)。電源オフが無かった場合(ステップS15;No)、前回と今回の測位位置の間の距離を求め(ステップS16)、求めた、距離を過去の走行距離の累算値に加算する(ステップS17)。 Subsequently, the control unit 18 determines whether or not the power has been turned off between the previous positioning process and the current positioning process (step S15). If the power has not been turned off (step S15; No), the distance between the previous and current positioning positions is obtained (step S16), and the obtained distance is added to the accumulated value of past travel distances (step S17). .

次に、走行距離の累算値が所定値(本実施形態では、200km)の倍数を新たに超えたか否かを判別する(ステップS18)。超えていれば(ステップS18;Yes)、未取得のゆるキャラクタのうちの1つをランダムに選択して取得し(ステップS19)、今回の処理を終了する。 Next, it is determined whether or not the cumulative value of traveled distance has newly exceeded a multiple of a predetermined value (200 km in this embodiment) (step S18). If it exceeds (step S18; Yes), one of the unacquired yuru characters is randomly selected and acquired (step S19), and the current process ends.

一方、前回の測位と今回の測位との間に、電源オフがあったと判別した場合(ステップS15;Yes)、及び、走行距離の累算値が200kmの倍数を超えていない場合(ステップS18;No)、今回の処理を終了する。 On the other hand, if it is determined that the power has been turned off between the previous positioning and the current positioning (step S15; Yes), and if the cumulative traveled distance does not exceed a multiple of 200 km (step S18; No), terminate the current process.

このような処理により、例えば、県境を越えて他の都道府県に始めてドライブした場合に、その都道府県のゆるキャラが取得される。また、同一都道府県内のみを走行している場合でも、200kmを走行する度に新たなゆるキャラを取得できる。ただし、例えば、電源をオフにして北海道から沖縄にフェリーで移動して電源をオンにすると、ナビゲーション装置1の移動距離は200kmを超えるが、ステップS16-S19がスキップされる結果、この移動距離は累算地にカウントされないため、電源オフ中の移動による新たなゆるキャラは取得できない(なお、沖縄ではじめて電源がオンになった場合には、新たな地域に入ったことになるから、ステップS14で沖縄に対応するゆるキャラを取得できる)。 Through such processing, for example, when the user drives to another prefecture for the first time across a prefectural border, the Yuru-chara of that prefecture is acquired. Also, even if you are traveling only within the same prefecture, you can acquire a new Yuru-chara every time you travel 200 km. However, for example, when the power is turned off, the navigation device 1 travels by ferry from Hokkaido to Okinawa, and the power is turned on, the movement distance of the navigation device 1 exceeds 200 km, but as a result of skipping steps S16 to S19, this movement distance is Since it is not counted in the accumulative area, it is not possible to acquire a new Yuru-chara by moving while the power is off. You can get Yuru-chara corresponding to Okinawa with).

上記ゆるキャラ取得処理は、後述の表示モードとして、どのモードが選択されているかとは関係なく実行される。したがって、固定モードで常に同じゆるキャラのみを表示させていたとしても、ユーザは、ナビゲーション装置1の電源をオンにした状態で、地域間の移動を行い、又は、長距離の移動を行うことで、ゆるキャラの取得を進めることができる。 The Yuru-chara acquisition process is executed regardless of which mode is selected as a display mode, which will be described later. Therefore, even if only the same Yuru-chara is always displayed in the fixed mode, the user can move between regions or travel long distances with the power of the navigation device 1 turned on. , You can proceed with the acquisition of loose characters.

また、新たな地域に移動した場合と、所定距離を移動した場合の2つの条件でゆるキャラの追加(ステップS14,S19)が行われるため、遠隔地へは移動しないユーザであっても、ゆるキャラの取得を進めることが可能である。 In addition, Yuru-chara is added (steps S14 and S19) under two conditions: when the user moves to a new area and when the user moves a predetermined distance. It is possible to proceed with character acquisition.

<表示モードの選択・切り替え> <Selecting/switching the display mode>

次に、上記のようにして、ゆるナビモードが選択された場合に、ナビゲーション動作において案内画面GV1に表示するゆるキャラを選択する処理を説明する。 Next, the process of selecting a Yuru-chara to be displayed on the guidance screen GV1 in the navigation operation when the Yuru-navi mode is selected as described above will be described.

ナビゲーション装置1は固定モード、県境モード、走行距離モードの3つの表示モードを有する。固定モードは、特定のゆるキャラを選択し続けるモードである。県境モードは、現在位置の都道府県のゆるキャラを表示するモードである。走行距離モードは、ナビゲーション装置1が所定距離、例えば、200km移動する毎に、表示するゆるキャラを変更していくモードである。 The navigation device 1 has three display modes: a fixed mode, a prefectural border mode, and a travel distance mode. The fixed mode is a mode in which a specific loose character is continuously selected. The prefectural border mode is a mode for displaying the Yuru-chara of the prefecture of the current position. The running distance mode is a mode in which the displayed Yuru-chara is changed every time the navigation device 1 moves a predetermined distance, for example, 200 km.

表示モードの選択は、例えば、ナビメニュー画面(図8(b))で「ご当地キャラ」ボタンをタッチすることで表示部5に表示される選択画面(図示せず)での操作によって行われる。図12は、当該操作に応じて制御部18が実行する表示モード選択処理を示す。 Selection of the display mode is performed, for example, by operating a selection screen (not shown) displayed on the display unit 5 by touching the "local character" button on the navigation menu screen (FIG. 8(b)). . FIG. 12 shows display mode selection processing executed by the control unit 18 in response to the operation.

表示モード選択処理において、ユーザが固定モードを選択すると(ステップS31;Yes)、制御部18は、続いて、許可キャラクタリストに含まれるゆるキャラを一覧等の形式で表示し、ユーザは、その中かから好みのゆるキャラを選択する(ステップS32)。制御部18は、固定モードと選択されたゆるキャラとを記憶する。 In the display mode selection process, when the user selects the fixed mode (step S31; Yes), the control unit 18 subsequently displays Yuru-chara included in the permitted character list in the form of a list or the like, and the user can select one of them. A favorite mascot character is selected (step S32). The control unit 18 stores the fixed mode and the selected Yuru-chara.

ユーザが県境モードを選択すると(ステップS33;Yes)、制御部18は、並行して実行されているゆるキャラ取得処理の最新のステップS12で特定された都道府県に対応するゆるキャラを選択する(ステップS34)。制御部18は、「県境モード」と選択したゆるキャラとを記憶する。 When the user selects the prefectural border mode (step S33; Yes), the control unit 18 selects the mascot character corresponding to the prefecture specified in the latest step S12 of the mascot acquisition process executed in parallel ( step S34). The control unit 18 stores the "prefectural border mode" and the selected Yuru-chara.

ユーザが走行距離モードを選択すると(ステップS35;Yes)、制御部18は、許可キャラクタリストに含まれるゆるキャラのいずれか1つを選択する(ステップS36)。ここでのゆるキャラの選択は、許可キャラクタリストからランダムに選択しても良く、今回の表示モード選択処理の直前の走行距離モードで表示されていたゆるキャラを選択しても良い。制御部18は、「走行距離モード」と選択したゆるキャラとを記憶する。 When the user selects the travel distance mode (step S35; Yes), the control unit 18 selects one of the mascots included in the permitted character list (step S36). The loose character may be selected at random from the permitted character list, or the loose character displayed in the mileage mode immediately before the current display mode selection process may be selected. The control unit 18 stores the "mileage mode" and the selected Yuru-chara.

「県境モード」と「走行距離モード」が選択された場合、ナビゲーション動作中にゆるキャラは適宜選択され変更される。 When "prefectural border mode" and "mileage mode" are selected, Yuru-chara is appropriately selected and changed during the navigation operation.

このゆるキャラの選択は、図13のゆるキャラ選択処理により行われる。
ゆるキャラ選択処理が開始すると、制御部18は、まず、「通常モード」が設定されているか「ゆるナビモード」が設定されているか、を判別する(ステップS41)。
「通常モード」が設定されている場合、ゆるキャラを選択する必要がないので、今回の処理を終了する。
The Yuru-chara selection is performed by the Yuru-chara selection process shown in FIG.
When the Yuru-chara selection process starts, the control unit 18 first determines whether the "normal mode" or the "Yuru-navi mode" is set (step S41).
If the "normal mode" is set, there is no need to select a Yuru-chara, so this process ends.

一方、「ゆるナビモード」が設定されている場合、次に、何れの選択モードが設定されているかを判別する(ステップS42~S44)。固定モードの場合(ステップS42;Yes)、ゆるキャラを新たに選択する必要がないので、処理を終了する。 On the other hand, if the "loose navigation mode" is set, then it is determined which selection mode is set (steps S42 to S44). In the case of the fixed mode (step S42; Yes), there is no need to newly select a Yuru-chara, so the process ends.

県境モードの場合(ステップS42;No,ステップS43;Yes)、並行して実行されているゆるキャラ取得処理の最新のステップS12で特定された都道府県に基づき、地域境界(県境等)を越えて新たな地域に入ったか否かを判別する。そして、新たな地域に入ったと判別した場合には、その新たな地域に対応するゆるキャラを選択し(ステップS45)、処理を終了する。 In the case of the prefectural border mode (step S42; No, step S43; Yes), based on the prefecture specified in the latest step S12 of the Yuru-chara acquisition process that is being executed in parallel, Determine whether a new region has been entered. Then, when it is determined that a new area has been entered, a Yuru-chara corresponding to the new area is selected (step S45), and the process ends.

走行距離モードの場合(ステップS42;No,ステップS43;No,ステップS44;Yes)、平行して実行されているゆるキャラ取得処理の最新のステップS17における走行距離の累算値が200kmの倍数を超えたか否かを判別し(ステップS46)、超えていれば、許可キャラクタリストのゆるキャラのなかから、選択中のゆるキャラとは異なるものを選択し(ステップS47)、処理を終了する。この選択は、例えば、順次的な選択にすると良い。この場合、許可キャラクタリストに追加された時期が最近のものから順番に選択する等、特定の順序で選択することが考えられる。 In the case of travel distance mode (step S42; No, step S43; No, step S44; Yes), the accumulated value of the travel distance in the latest step S17 of the Yuru-chara acquisition process executed in parallel is a multiple of 200 km. It is determined whether or not it has exceeded (step S46), and if it has exceeded, a loose character different from the currently selected loose character is selected from among the permitted character list (step S47), and the process ends. This selection may be, for example, a sequential selection. In this case, it is conceivable to select characters in a specific order, such as selecting characters in order from the one added to the permitted character list in descending order.

<ナビゲーション動作>
図8(b)のナビメニュー画面等で「現在地」ボタンがタッチされると、制御部18は、ナビゲーション動作を実行する。ナビゲーション動作では、交通に関する種々の注意、警告情報の案内が行われる他、図10(a)、(b)の検索メニュー、登録・編集メニュー等で目的地が設定されている場合には、当該目的地と現在位置等に基づいて生成されたルート情報に基づくルート案内が行われる。
<Navigation operation>
When the "current location" button is touched on the navigation menu screen or the like of FIG. 8(b), the control unit 18 executes the navigation operation. In the navigation operation, various cautions and warning information regarding traffic are provided. Route guidance is provided based on route information generated based on the destination, current position, and the like.

図14は、動作モードが通常モードに設定されている場合のナビゲーション動作における音声出力処理を示す。通常モードのナビゲーション動作では、表示部5には、図9(d)に例示する案内画面GV2が表示される。案内画面GV2には、ステップS11で取得した現在位置を含む地図の他、地名、方位、縮尺、時刻等の情報が表示される。案内画面GV2では、ゆるキャラの画像Cは表示されない。 FIG. 14 shows voice output processing in navigation operation when the operation mode is set to the normal mode. In the navigation operation in the normal mode, the display unit 5 displays a guidance screen GV2 illustrated in FIG. 9(d). The guidance screen GV2 displays the map including the current position acquired in step S11, as well as information such as the place name, direction, scale, and time. The Yuru-chara image C is not displayed on the guide screen GV2.

図14のステップS61では、制御部18は、ステップS11で取得した現在位置や設定されたルート情報等に基づき、第1又は第3音声対応テーブルで規定されるいずれかのイベント番号に対応するイベントが発生しているか判別する。イベントが発生していない場合、ステップS61が反復して実行される(ステップS61;No)。 In step S61 of FIG. 14, the control unit 18, based on the current position acquired in step S11, the set route information, etc., selects the event corresponding to either the event number defined in the first or third audio correspondence table. is occurring. If no event has occurred, step S61 is repeatedly executed (step S61; No).

イベントが発生している場合(ステップS61:Yes)、そのイベント番号に対応するフレーズ番号及び案内時間が、第1又は第3音声対応テーブルから特定され(ステップS62)、特定されたフレーズ番号に対応する録音データを再生することにより、案内音声が出力される(ステップS63)。ステップS63は、ステップS62で特定した案内時間の経過により終了し、その後、処理は、ステップS61に戻る。 If an event has occurred (step S61: Yes), the phrase number and guidance time corresponding to the event number are specified from the first or third voice correspondence table (step S62), and correspond to the specified phrase number. A guidance voice is output by reproducing the recorded data (step S63). Step S63 ends when the guidance time specified in step S62 elapses, and then the process returns to step S61.

これにより、ゆるキャラの画像Cの無い案内画面GV2の表示と、通常音声による案内音声の出力によるナビゲーションが行われる。 As a result, navigation is performed by displaying the guidance screen GV2 without the Yuru-chara image C and by outputting the guidance voice in the normal voice.

図15は、動作モードがゆるナビモードに設定されている場合のナビゲーション動作における音声出力/キャラクタ表示処理を示す。ゆるナビモードのナビゲーション動作では、表示部5には、図9(b)に例示するように、図9(d)の案内画面GV2と同様の案内画面GV1に重ね合わせてゆるキャラの画像Cが表示される。ここで表示されるゆるキャラの画像Cは、その時点で選択されているゆるキャラ(図12の表示モード選択処理又は図13のゆるキャラ選択処理で選択されたゆるキャラ)の画像である。 FIG. 15 shows voice output/character display processing in the navigation operation when the operation mode is set to the Yuru Navi mode. In the navigation operation of the Yuru Navi mode, the display unit 5 displays a Yuru-chara image C superimposed on a guidance screen GV1 similar to the guidance screen GV2 of FIG. 9(d), as shown in FIG. 9(b). Is displayed. The Yuru-chara image C displayed here is the image of the Yuru-chara selected at that time (the Yuru-chara selected in the display mode selection process of FIG. 12 or the Yuru-chara selection process of FIG. 13).

ステップS71では、制御部18は、ステップS11で取得した現在位置や設定されたルート情報等に基づき、第1~第3音声対応テーブルで規定されるいずれかのイベント番号に対応するイベントが発生しているか判別する。 In step S71, the control unit 18 determines whether an event corresponding to one of the event numbers defined in the first to third audio correspondence tables has occurred based on the current position acquired in step S11, the set route information, and the like. determine whether the

イベントが発生していない場合、ステップS72において、ゆるキャラの画像Cを平常動作に従って動作させた後、ステップS71に戻る。このように、イベントが発生しない限り、ステップS71,S72が反復して実行され、平常動作を行うゆるキャラの画像Cが継続して表示される。この間、案内音声は出力されない。 If the event has not occurred, in step S72, the Yuru-chara image C is operated according to the normal operation, and then the process returns to step S71. As described above, unless an event occurs, steps S71 and S72 are repeatedly executed, and image C of Yuru-chara performing normal actions is continuously displayed. During this time, guidance voice is not output.

ステップS71でイベントが発生している場合(ステップS71:Yes)、ステップS73に移行し、発生したイベントが第3音声対応テーブルに規定のPOIイベントかどうかが判断され、否定(No)の場合は、ステップS74において、その時点で選択されているゆるキャラが特定ゆるキャラであるか否かが判断される。 If an event has occurred in step S71 (step S71: Yes), the process moves to step S73, and it is determined whether or not the event that has occurred is a POI event specified in the third audio correspondence table. , in step S74, it is determined whether or not the Yuru-chara currently selected is a specific Yuru-chara.

ステップS73の判断が肯定(Yes)の場合、ステップS75において、発生したイベントに対応するフレーズ番号及び案内時間が第3音声対応テーブルから特定される。 If the determination in step S73 is affirmative (Yes), in step S75, the phrase number and guide time corresponding to the occurred event are identified from the third voice correspondence table.

ステップS74の判断が否定(No)の場合(特定ゆるキャラ以外のゆるキャラが選択されている場合)、ステップS76において、発生したイベントに対応するフレーズ番号及び案内時間が第1音声対応テーブルから特定される。 If the determination in step S74 is negative (No) (if a mascot character other than the specific mascot character is selected), then in step S76, the phrase number and guidance time corresponding to the event that occurred are identified from the first voice correspondence table. be done.

ステップS74の判断が肯定(Yes)の場合(特定ゆるキャラが選択されている場合)、ステップS77において、発生したイベントに対応するフレーズ番号及び案内時間が第2音声対応テーブルから特定される。 If the determination in step S74 is affirmative (Yes) (if a specific Yuru-chara is selected), in step S77, the phrase number and guide time corresponding to the event that occurred are specified from the second voice correspondence table.

ステップS75~S77において、第1~第3音声対応テーブルに発生したイベントに対応するフレーズ番号及び案内時間が複数規定されている場合には、その中から選択されるいずれかのフレーズ番号及び案内時間が特定される。ここでの選択は、順次的な態様で行なうのが良い。例えば、特定ゆるキャラが選択されている状態であるイベント(例えば、イベント391)が発生した場合、同一のイベント(イベント391)に対して過去に実行された最新のステップS77で特定されたフレーズ番号が3番目の「IE_AN_470」であったとすれば、今回のステップS77では、4番目のフレーズ番号「IE_AN_471」及び案内時間(「11.844」)を特定する等である。これにより、同一イベントが頻繁に発生した場合でも、同じフレーズが繰り返して出力されないようにできる。 In steps S75 to S77, if a plurality of phrase numbers and guide times corresponding to events occurring in the first to third voice correspondence tables are specified, one of the phrase numbers and guide times selected from among them is specified. is identified. The selection here is preferably made in a sequential manner. For example, when an event (for example, event 391) occurs in which a specific loose character is selected, the phrase number specified in the latest step S77 executed in the past for the same event (event 391) is the third "IE_AN_470", in this step S77, the fourth phrase number "IE_AN_471" and the guide time ("11.844") are specified. As a result, even when the same event occurs frequently, the same phrase can be prevented from being output repeatedly.

ステップS75~S77の後、処理はステップS78に移行する。ステップS78では、ステップS75~S77で特定されたフレーズ番号に対応する動作番号が、図7の動作対応テーブルから特定される。 After steps S75-S77, the process proceeds to step S78. At step S78, the action number corresponding to the phrase number specified at steps S75 to S77 is specified from the action correspondence table of FIG.

続くステップS79では、ステップS75~S77で特定されたフレーズ番号に対応する音声データを再生することにより案内音声が出力されるとともに、ステップS78で特定された特定番号の特定動作データに従ってゆるキャラの画像Cを動作させる処理が行われる。 In subsequent step S79, guidance voice is output by reproducing voice data corresponding to the phrase number specified in steps S75 to S77, and an image of Yuru-chara is displayed according to the specified action data of the specified number specified in step S78. Processing to activate C is performed.

これにより、ゆるキャラの画像Cを表示した案内画面GV1の表示と、通常音声(ステップS75の場合)、ゆるキャラ音声(ステップS76の場合)又は本人音声(ステップS77の場合)による案内音声の出力によるナビゲーションが行われ、各イベントに対応した内容の音声を、ゆるキャラの画像Cが、定常動作とは異なる各イベントに対応した特定動作で、あたかも身振りを交えながら話している、又は、聞いているかのような演出とすることができる。 As a result, the guidance screen GV1 displaying the Yuru-chara image C is displayed, and the guidance voice is output by the normal voice (in the case of step S75), the Yuru-chara voice (in the case of step S76), or the person's own voice (in the case of step S77). is performed, and the Yuru-chara image C speaks or listens to the voice of the content corresponding to each event in a specific action corresponding to each event, which is different from the regular action, with gestures. It can be a production as if you were there.

ステップS79は、ステップS75~77で特定した案内時間の経過により終了し、その後、処理は、ステップS71に戻る。 Step S79 ends when the guidance time specified in steps S75 to S77 elapses, and then the process returns to step S71.

<初期状態のナビゲーション動作>
初期状態(例えば、工場出荷後に最初に電源投入された状態)では、デフォルトキャラクタを画面表示して操作説明などのガイダンスを行うと良い。
<Navigation behavior in the initial state>
In the initial state (for example, when the power is turned on for the first time after shipment from the factory), it is preferable to display a default character on the screen and provide guidance such as operation instructions.

その後、動作モードが通常モードに設定され、ナビゲーション動作が開始されると、キャラクタが非表示の案内画面GV2を表示しつつ、図14で説明したのと同様の音声出力処理が実行される。 After that, when the operation mode is set to the normal mode and the navigation operation is started, the voice output processing similar to that described with reference to FIG. 14 is executed while displaying the guide screen GV2 in which the character is not displayed.

一方、ゆるナビモードに設定され、図12の表示モード選択処理が未実施の状態でナビゲーション動作が開始されると、デフォルトキャラクタの画像を図9(b)と同様の態様で案内画面GVに表示した状態で、図15と同様の音声出力/キャラクタ表示処理が実行される。これにより、表示モード選択処理で選択された表示モードに応じたゆるキャラが表示されるものとした製品コンセプトを、初期状態直後の動作においても維持することができる。このときの音声出力/キャラクタ表示処理では、デフォルトキャラクタは、通常の(特定ゆるキャラではない)ゆるキャラであるものとして扱うと良い。 On the other hand, when the Yuru Navi mode is set and the navigation operation is started in a state where the display mode selection process of FIG. 12 has not been performed, the image of the default character is displayed on the guidance screen GV in the same manner as in FIG. 9B. In this state, the same voice output/character display processing as in FIG. 15 is executed. As a result, the product concept of displaying the Yuru-chara corresponding to the display mode selected in the display mode selection process can be maintained even in the operation immediately after the initial state. In the voice output/character display processing at this time, the default character should be treated as a normal yuru-chara (not a specific yuru-chara).

<電源投入又はレジューム直後のナビゲーション動作>
図12の表示モード選択処理が実行された後の電源投入又はレジューム直後にナビゲーション動作に移行した場合の処理を説明する。
<Navigation operation immediately after power-on or resume>
Processing when the navigation operation is started immediately after the power is turned on or resumed after the display mode selection processing of FIG. 12 is executed will be described.

通常モード時は、図14に関して説明した通常モードのナビゲーション動作と変わるところはない。 In the normal mode, there is no difference from the normal mode navigation operation described with reference to FIG.

ゆるナビモードで電源投入又はレジューム直後にナビゲーション動作が開始されると、ステップS11の測位情報の取得までは、通常モードと同様のナビゲーション動作が実行される。すなわち、案内画面GV2を表示した状態で、図14に関して説明した音声出力処理が実行される。 When the navigation operation is started in the Yuru-navi mode immediately after the power is turned on or resumed, the same navigation operation as in the normal mode is performed until the positioning information is acquired in step S11. That is, the voice output process described with reference to FIG. 14 is executed while the guidance screen GV2 is displayed.

その後、ステップS11の測位情報の取得に成功すると、その時点で選択されているゆるキャラを案内画面GV2に登場させる演出を行った後、通常のゆるナビモードでのナビゲーション動作が実行される。すなわち、案内画面GV1を表示した状態で、図15に関して説明した音声出力/キャラクタ表示処理が実行される。上記演出を行うことで、測位に成功したことをユーザに通知できる。 After that, when the acquisition of the positioning information in step S11 succeeds, the Yuru-chara currently selected appears on the guide screen GV2, and then the normal navigation operation in the Yuru-navi mode is executed. That is, the voice output/character display processing described with reference to FIG. 15 is executed while the guide screen GV1 is displayed. By performing the above effects, it is possible to notify the user that positioning has been successful.

<ゆるキャラ情報の表示>
制御部18は、図8(b)に示したナビメニュー画面上で、「ゆるキャラ」ボタンがタッチされた場合、制御部18は、図16(a)のゆるキャラ画面を表示する。ここで、「ゆるキャラ情報」ボタンを操作すると、制御部18は、ゆるキャラ情報から現在選択中のゆるキャラの設定情報を読み出し、図16(b)のゆるキャラ情報画面を表示する。
<Display of mascot information>
When the "Yuru-chara" button is touched on the navigation menu screen shown in FIG. 8(b), the control unit 18 displays the Yuru-chara screen shown in FIG. 16(a). Here, when the "yuru-chara information" button is operated, the control unit 18 reads the setting information of the currently selected mascot from the mascot information, and displays the mascot information screen of FIG. 16(b).

図16(b)の破線は、画面中に設定されたフィールドA~Eを示す説明線である。各フィールドA~Eには、フィールドデータDA~DFの各情報が表示される。このゆるキャラ情報画面により、ユーザは、選択中のゆるキャラをより詳しく知ることができる。なお、フィールドA~Eのレイアウトが固定されていることと、各フィールドA~Eに表示するフィールドデータDA~DFが多くのゆるキャラについて標準の属性であることから、ユーザにとって理解し易い説明を提供できる。その一方、ゆるキャラの種類によっては、非標準の属性のデータをフィールドA~Eに表示できるため、型通りでは説明の難しい特殊な特性のゆるキャラの説明も容易になる。 Broken lines in FIG. 16(b) are descriptive lines indicating fields A to E set in the screen. Field data DA to DF are displayed in fields A to E, respectively. With this Yuru-chara information screen, the user can know the selected Yuru-chara in more detail. In addition, since the layout of fields A to E is fixed and the field data DA to DF displayed in each field A to E are the standard attributes of many Yuru characters, explanations that are easy for the user to understand should be provided. can provide. On the other hand, depending on the type of yuru-chara, non-standard attribute data can be displayed in fields A to E, making it easy to explain yuru-chara with special characteristics that are difficult to explain in a conventional way.

図16(a)のゆるキャラ画面で、「全国ゆるキャラ図鑑」をタッチすると、制御部18は、データベース19に記憶されている許可キャラクタリストに基づいて、図17(a)のゆるキャラ一覧画面を表示する。ゆるキャラ一覧画面では、各地域(47都道府県)の名称が一覧表示される。取得済のゆるキャラについては、当該一覧の対応する地域にそのゆるキャラの画像が表示される。更に、本人音声を発する特定ゆるキャラについては、そのことを示す「音声付」の文字等からなるマークMが表示される。マークMは、当該特定ゆるキャラが許可キャラクタリストに含まれていなくても表示して良い。これにより、ユーザに当該特定ゆるキャラが未取得であることが明示され、ユーザにその取得を動機付けることができる。 16(a), the controller 18 displays the Yuru-chara list screen shown in FIG. display. On the Yuru-chara list screen, a list of the names of each region (47 prefectures) is displayed. For Yuru-chara that has already been acquired, the image of that Yuru-chara is displayed in the corresponding region of the list. Furthermore, a mark M made up of characters such as "with voice" is displayed for a specific yuru-chara that speaks its own voice. The mark M may be displayed even if the specific Yuru-chara is not included in the permitted character list. As a result, it is clearly shown to the user that the specific Yuru-chara has not yet been acquired, and the user can be motivated to acquire it.

ゆるキャラ一覧画面では、右側のスクロールボタンをタッチすることで、一覧のスクロール表示が可能である。 On the Yuru-chara list screen, you can scroll the list by touching the scroll button on the right side.

図17(a)のゆるキャラ一覧画面で、「地図表示」をタッチすると、制御部18は、図17(b)に示す全国ゆるキャラ図鑑画面を表示する。全国ゆるキャラ画面では、取得済のゆるキャラに対応する地域と、未取得のゆるキャラに対応する地域が識別可能な態様で簡略地図上に表示される。識別の態様としては、図示のように、取得済のゆるキャラに対応する地域の名称を非表示にするのが良い。未取得の地域の明示により、ユーザは、当該地域のゆるキャラを取得目標として認識し易くなる。又は、取得済又未取得のゆるキャラに対応する地域を網掛け等してもよい。 When "map display" is touched on the Yuru-chara list screen of FIG. 17(a), the control unit 18 displays the National Yuru-chara picture book screen shown in FIG. 17(b). On the national Yuru-chara screen, regions corresponding to Yuru-chara that have already been acquired and regions corresponding to Yuru-chara that have not yet been acquired are displayed on a simple map in a manner that allows identification. As a mode of identification, it is preferable to hide the name of the area corresponding to the obtained Yuru-chara, as shown in the figure. Clearly indicating an area that has not yet been acquired makes it easier for the user to recognize Yuru-chara in that area as an acquisition target. Alternatively, areas corresponding to acquired or unacquired Yuru-chara may be shaded.

図17(b)の全国ゆるキャラ図鑑画面でユーザが所望の地域をタッチすると、その地域に対応するゆるキャラについて、図16(b)のゆるキャラ情報画面を表示しても良い。この場合、取得済のゆるキャラについてのみゆるキャラ情報画面の表示を許可しても良い。 When the user touches a desired region on the National Yuru-chara picture book screen of FIG. 17(b), the Yuru-chara information screen of FIG. 16(b) may be displayed for the Yuru-chara corresponding to that region. In this case, display of the yuru-chara information screen only for acquired yuru-chara may be permitted.

ゆるキャラ一覧画面及び全国ゆるキャラ図鑑画面では、取得済及び未取得のゆるキャラの個数が併せて表示される。ゆるキャラ一覧画面及び全国ゆるキャラ図鑑画面で「現在地」ボタンをタッチすると、そのときの動作モードに応じて、図9(b)又は(d)の案内画面GV1又はGV2に復帰する。 On the Yuru-chara list screen and the National Yuru-chara picture book screen, the number of obtained and unobtained Yuru-chara is also displayed. When the "current location" button is touched on the Yuru-chara list screen and the Nationwide Yuru-chara picture book screen, the screen returns to the guide screen GV1 or GV2 of FIG. 9(b) or (d) depending on the operation mode at that time.

<コンプリート演出>
以上のように、ユーザは、ナビゲーション装置1を車両等に搭載して移動することより、取得済のゆるキャラを増やしていくことができる。そして、ユーザが全ての都道府県のゆるキャラを取得した場合には、制御部18は、ゆるキャラの取得をコンプリートしたことをユーザに報知するコンプリート演出が行われる。
<Complete production>
As described above, the user can increase the number of yuru-charas that have already been acquired by mounting the navigation device 1 on a vehicle or the like and moving around. Then, when the user has acquired Yuru-chara for all prefectures, the control unit 18 performs a completion effect to inform the user that the acquisition of Yuru-chara has been completed.

すなわち、47個目のゆるキャラが許可キャラクタリストに追加されると、イベント428の発生が判定される。そして、その時点で選択されているゆるキャラが特定ゆるキャラではない場合、図18に示すコンプリート演出処理が実行される。 That is, when the 47th Yuru-chara is added to the permitted character list, it is determined that event 428 has occurred. Then, if the yuru-chara selected at that time is not the specific yuru-chara, the complete rendering process shown in FIG. 18 is executed.

コンプリート演出処理では、ステップS81において、ゆるナビモードで案内画面GV1が表示中の場合は、案内画面GV1からゆるキャラの画像Cを退場させる。それ以外の場合は、ゆるキャラの画像Cの無い案内画面GV2を表示させる。 In the complete effect process, in step S81, if the guidance screen GV1 is being displayed in the Yuru Navi mode, the Yuru-chara image C is removed from the guidance screen GV1. Otherwise, the guide screen GV2 without the image C of Yuru-chara is displayed.

続くステップS82では、ステップS81の案内画面GVに特定ゆるキャラの画像Cを登場させる。 In the subsequent step S82, an image C of a specific Yuru-chara appears on the guide screen GV of step S81.

その後、ステップS83では、イベント428に対応するフレーズ番号(「IE_AN_600」)及び案内時間(「8.434」)が特定され、ステップS84では、当該フレーズ番号(「IE_AN_600」)に対応する動作データ(「comp_08」)が特定される。 After that, in step S83, the phrase number ("IE_AN_600") and guide time ("8.434") corresponding to the event 428 are specified, and in step S84, the action data ("comp_08 ”) is identified.

続くステップS85では、ステップS83で特定された音声フレーズに対応する音声データを再生することにより案内音声が出力されるとともに、ステップS84で特定された特定動作の動作データに従ってゆるキャラの画像Cを動作させる処理が行われる。 In the subsequent step S85, the voice data corresponding to the voice phrase specified in step S83 is reproduced to output guidance voice, and the Yuru-chara image C is moved according to the motion data of the specified motion specified in step S84. processing is performed.

これにより、特定ゆるキャラの画像Cを案内画面GVに表示した状態で、「全ゆるキャラ コンプリ~ト~ 全国制覇じゃ~」のような特殊な案内音声が出力される。 As a result, while the image C of the specific Yuru-chara is displayed on the guidance screen GV, a special guidance voice such as "All Yuru-chara complete! Conquer the whole country!" is output.

ステップS85は、ステップS83で特定した案内時間の経過により終了し、その後、特定ゆるキャラの画像Cを画面から退出させ(ステップS86)、更に、その後は、表示部5の表示をコンプリート演出処理前の状態に復帰させて、コンプリート演出処理は終了となる。 Step S85 ends when the guidance time specified in step S83 elapses, after which the image C of the specified Yuru-chara is withdrawn from the screen (step S86). , and the completion effect process ends.

このような案内音声と特定ゆるキャラの画像Cによる特定動作の表示を用いたコンプリート演出により、ゆるキャラの取得を完了したことをユーザに印象付けることができる。また、ナビゲーション動作中以外であってもコンプリート演出を行うことで、コンプリートしたことをユーザに確実に知らせることができる。なお、ナビゲーション動作中、又は、ゆるキャラモードでのナビゲーション動作中にのみ、コンプリート演出を行う設定とすることも考えられる。 Such a completion effect using the guidance voice and the display of the specific action by the image C of the specific Yuru-chara can impress the user that acquisition of the Yuru-chara has been completed. In addition, the user can be reliably notified of the completion by performing the completion effect even when the navigation operation is not in progress. It is also conceivable to set the completion effect to be performed only during the navigation operation or during the navigation operation in the Yuru-chara mode.

イベント428の発生が判定された時点で選択されているゆるキャラが特定ゆるキャラの場合は、そのまま、音声出力/キャラクタ表示処理のステップS77~S79が実行されることで、上記と同様の態様で、コンプリート演出が行われる。 If the Yuru-chara selected at the time when the occurrence of the event 428 is determined to be a specific Yuru-chara, steps S77 to S79 of the voice output/character display processing are executed as they are, in the same manner as above. , A complete production is performed.

<ゆるキャラ画像の非表示>
ゆるナビモードのナビゲーション動作中に特定の状況(例えば、進路変更すべき交差点への接近)が生じた場合、図10(c)の登録・編集画面で設定した補助画面の優先順位によって、図9(b)の案内画面GVから、図19の補助付き案内画面GV3に画面表示が切替えられる。補助付き案内画面GV3では、画面左側に図9(b)の案内画面と同様の地図情報が表示されるとともに画面右側に交差点拡大図等の補助画面が表示される。
<Hiding Yuru-chara images>
When a specific situation (for example, approaching an intersection to change course) occurs during the navigation operation in Yuru Navi mode, the priority of the auxiliary screen set on the registration/edit screen of FIG. The screen display is switched from the guidance screen GV of (b) to the guidance screen GV3 with assistance shown in FIG. In the guide screen GV3 with assistance, map information similar to that of the guide screen in FIG. 9B is displayed on the left side of the screen, and an auxiliary screen such as an enlarged intersection view is displayed on the right side of the screen.

このような補助付き案内画面では、補助画面に表示される情報の視認性を損なわない等の配慮から、ゆるキャラの画像Cは、非表示となる。 In such a guidance screen with assistance, the Yuru-chara image C is not displayed in order not to impair the visibility of the information displayed on the assistance screen.

図9(b)の案内画面GV1においても、ゆるキャラの画像Cの画像にタッチするなどにより、ゆるキャラの画像Cの画像を非表示にできるよう構成しても良い。これにより、ゆるキャラの画像Cの表示位置における情報の視認性を高めることができる。 The guidance screen GV1 of FIG. 9B may also be configured so that the Yuru-chara image C can be hidden by touching the Yuru-chara image C, for example. Thereby, the visibility of the information at the display position of the mascot image C can be improved.

なお、デモ走行のときは、ゆるキャラの取得もゆるキャラの表示も行わないこととする。この場合、例えば、ユーザは、制御部18に、デモ走行である旨を指示する。この場合、制御部18は、通常モードのみを設定可能とする。 It should be noted that, during the demonstration run, neither acquisition of Yuru-chara nor display of Yuru-chara is performed. In this case, for example, the user instructs the control unit 18 to indicate that the vehicle is a demonstration run. In this case, the control unit 18 can set only the normal mode.

本願に開示の発明は、上記実施形態に限定されず、種々の変形及び応用が可能である。例えば、上記実施形態では、ゆるキャラを1都道府県1体の計47体としたが、その数は任意である。また、町村単位で、ゆるキャラを収集するなど、ゆるキャラが割り当てられる領域のサイズ、数は任意である。 The invention disclosed in the present application is not limited to the above embodiments, and various modifications and applications are possible. For example, in the above embodiment, a total of 47 yuru-charas, one for each prefecture, are used, but the number is arbitrary. In addition, the size and number of regions to which Yuru-chara are assigned are arbitrary, such as collecting Yuru-chara in units of towns and villages.

上記実施形態では、すべての案内音声用の音声データとして、アナウンサ、声優等の発話を録音した録音データを使用する場合を説明したが、例えば、全部又は一部の案内音声(例えば、通常モード用の案内音声)は、テキストデータをTTS(Text to Talk)変換することで出力しても良い。 In the above embodiment, the case of using the recorded data of the announcer, the voice actor, etc. as the voice data for all guidance voices was explained, but for example, all or part of the guidance voice (for example, for normal mode guidance voice) may be output by converting text data into TTS (Text to Talk).

下記は、出願時の各請求項の写しである。
<請求項1>
複数の地域を含む地図に関連する情報の案内を行う表示制御装置であって、
複数の前記地域との対応が規定された複数のキャラクタのいずれかの画像を表示手段に表示させる制御を行う制御手段を有することを特徴とする表示制御装置。
<請求項2>
前記制御手段は、前記複数のキャラクタの全部又は一部からなる集合である許可キャラクタ群から選択される前記キャラクタの画像を前記表示手段に表示するものであり、
前記制御手段は、前記表示制御装置が前記キャラクタとの対応関係が規定された前記地域に移動したことを条件に、移動先の前記地域に対応する前記キャラクタを前記許可キャラクタ群に追加することを特徴とする請求項1に記載の表示制御装置。
<請求項3>
前記制御手段は、前記複数のキャラクタの全部又は一部からなる集合である許可キャラクタ群から選択される前記キャラクタの画像を前記表示手段に表示するものであり、
前記制御手段は、前記表示制御装置が、所定の距離を移動したことを条件に、前記複数のキャラクタから選択されるいずれかの前記キャラクタを新たに前記許可キャラクタ群に追加することを特徴とする請求項1又は2に記載の表示制御装置。
<請求項4>
前記複数のキャラクタは、少なくとも一つのデフォルトキャラクタを含み、
前記許可キャラクタ群に前記キャラクタが含まれていない場合に、前記制御手段は、前記デフォルトキャラクタの画像を前記表示手段に表示することを特徴とする請求項2又は3に記載の表示制御装置。
<請求項5>
ユーザの操作に基づいて、異なる態様で前記キャラクタの選択を行うための複数のモードのいずれかを選択するモード選択手段を更に有し、
前記制御手段は、前記モード選択手段が選択した前記モードに従って選択される前記キャラクタを前記表示手段に表示することを特徴とする請求項1~4のいずれか一項に記載の表示制御装置。
<請求項6>
前記複数のモードが、第1モードを含み、
前記第1モードが選択された場合、前記制御手段は、ユーザが指定した前記キャラクタの画像を前記表示手段に表示することを特徴とする請求項5に記載の表示制御装置。
<請求項7>
前記複数のモードが、第2モードを含み、
前記第2モードが選択された場合、前記制御手段は、前記表示制御装置が現在位置する前記地域に対応付けられた前記キャラクタの画像を前記表示手段に表示することを特徴とする請求項5又は6に記載の表示制御装置。
<請求項8>
前記複数のモードが、第3モードを含み、
前記第3モードが選択された場合、前記制御手段は、前記表示制御装置が所定の距離を移動する毎に、異なる前記キャラクタの画像を前記表示手段に表示することを特徴とする請求項5~7のいずれか一項に記載の表示制御装置。
<請求項9>
ユーザの操作に基づいて、表示モード又は非表示モードを選択する表示モード選択手段を更に有し、
前記制御手段は、前記表示モードが選択されたときには前記キャラクタの画像を前記表示手段に表示する制御を行い、前記非表示モードが選択されたときは前記キャラクタの画像を前記表示手段に表示する制御を行わないことを特徴とする請求項1~8のいずれか一項に記載の表示制御装置。
<請求項10>
請求項1~9のいずれかに記載の表示制御装置の機能をコンピュータに実現させるためのプログラム。

Below is a copy of each claim as filed.
<Claim 1>
A display control device for guiding information related to a map including a plurality of regions,
A display control device, comprising control means for controlling display means to display an image of one of a plurality of characters for which correspondence with a plurality of regions is defined.
<Claim 2>
The control means displays on the display means an image of the character selected from a group of permitted characters, which is a set of all or part of the plurality of characters,
The control means adds the character corresponding to the destination area to the permitted character group on condition that the display control device has moved to the area where the correspondence relationship with the character is defined. 2. The display control device according to claim 1.
<Claim 3>
The control means displays on the display means an image of the character selected from a group of permitted characters, which is a set of all or part of the plurality of characters,
The control means newly adds one of the characters selected from the plurality of characters to the permitted character group on condition that the display control device has moved a predetermined distance. The display control device according to claim 1 or 2.
<Claim 4>
the plurality of characters includes at least one default character;
4. The display control device according to claim 2, wherein when the character is not included in the allowed character group, the control means displays an image of the default character on the display means.
<Claim 5>
further comprising mode selection means for selecting one of a plurality of modes for selecting the character in different modes based on a user's operation;
5. The display control device according to claim 1, wherein said control means displays said character selected according to said mode selected by said mode selection means on said display means.
<Claim 6>
wherein the plurality of modes includes a first mode;
6. The display control apparatus according to claim 5, wherein when the first mode is selected, the control means displays an image of the character specified by the user on the display means.
<Claim 7>
wherein the plurality of modes includes a second mode;
6. When the second mode is selected, the control means displays on the display means an image of the character associated with the area where the display control device is currently located. 7. The display control device according to 6.
<Claim 8>
the plurality of modes includes a third mode;
When the third mode is selected, the control means displays a different image of the character on the display means each time the display control device moves a predetermined distance. 8. The display control device according to any one of 7.
<Claim 9>
further comprising display mode selection means for selecting a display mode or a non-display mode based on a user's operation;
The control means performs control to display the image of the character on the display means when the display mode is selected, and controls to display the image of the character on the display means when the non-display mode is selected. The display control device according to any one of claims 1 to 8, wherein the display control device does not perform
<Claim 10>
A program for causing a computer to implement the functions of the display control device according to any one of claims 1 to 9.

Claims (3)

移動距離を検出する機能と、
取得した地域に対応するキャラクタを表示する機能と、
前記移動距離の累算値が所定値を超えたことに応じて、前記地域に対応するキャラクタを取得する機能と、
を有し、
前記取得する機能は、前回の測位処理と今回の測位処理の間の距離が前記所定値を超えた場合に、前記前回の測位処理と今回の測位処理の間に電源のオフがあったときには、前回と今回の測位位置間の距離を前記累算値にカウントしない
システム。
a function to detect the movement distance;
A function to display the character corresponding to the acquired area,
a function of acquiring a character corresponding to the region in response to the cumulative value of the movement distance exceeding a predetermined value;
has
When the distance between the previous positioning process and the current positioning process exceeds the predetermined value, and the power is turned off between the previous positioning process and the current positioning process, the acquisition function is A system that does not count the distance between the positioning positions of the previous time and this time in the accumulated value.
車両に搭載される請求項1に記載のシステム。 2. The system of claim 1, mounted on a vehicle. コンピュータに、請求項1又は2に記載のシステムの機能を実現させるためのプログラム。 A program for causing a computer to implement the functions of the system according to claim 1 or 2 .
JP2022035045A 2019-07-30 2022-03-08 System and program Active JP7250378B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022035045A JP7250378B2 (en) 2019-07-30 2022-03-08 System and program
JP2023039213A JP7407489B2 (en) 2022-03-08 2023-03-14 System and program
JP2023208966A JP2024022658A (en) 2022-03-08 2023-12-12 System and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019139389A JP7042506B2 (en) 2019-07-30 2019-07-30 Systems and programs
JP2022035045A JP7250378B2 (en) 2019-07-30 2022-03-08 System and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019139389A Division JP7042506B2 (en) 2019-07-30 2019-07-30 Systems and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023039213A Division JP7407489B2 (en) 2022-03-08 2023-03-14 System and program

Publications (2)

Publication Number Publication Date
JP2022066474A JP2022066474A (en) 2022-04-28
JP7250378B2 true JP7250378B2 (en) 2023-04-03

Family

ID=87888754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022035045A Active JP7250378B2 (en) 2019-07-30 2022-03-08 System and program

Country Status (1)

Country Link
JP (1) JP7250378B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002206941A (en) 2001-01-09 2002-07-26 Mitsubishi Electric Corp Mobile navigation device
JP2012122777A (en) 2010-12-06 2012-06-28 Fujitsu Ten Ltd In-vehicle device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002206941A (en) 2001-01-09 2002-07-26 Mitsubishi Electric Corp Mobile navigation device
JP2012122777A (en) 2010-12-06 2012-06-28 Fujitsu Ten Ltd In-vehicle device

Also Published As

Publication number Publication date
JP2022066474A (en) 2022-04-28

Similar Documents

Publication Publication Date Title
US8489993B2 (en) Storage medium storing information processing program, information processing apparatus and information processing method
CN104380047B (en) Navigation system
JP6885819B2 (en) Navigation devices and navigation systems
CN102341839A (en) Virtual feature management for vehicle information and entertainment systems
US20100324818A1 (en) Presentation of navigation instructions using variable content, context and/or formatting
NL1031202C2 (en) Navigation device and method for receiving and playing sound samples.
JP6045354B2 (en) Guidance system, server, terminal device, guidance method and program
CN106103198A (en) Vehicle equipment
EP2754995A1 (en) Vehicle terminal and location-based content sharing system having the same
CN201122418Y (en) Self-help tour guide device
JP2024028844A (en) System and program
JP2002340580A (en) Information recorder
JP7250378B2 (en) System and program
JP7042506B2 (en) Systems and programs
JP7407489B2 (en) System and program
JP2023116595A (en) System and program
JP6582210B2 (en) Display control apparatus and program
JP2014021873A (en) Doze prevention device, doze prevention method, doze prevention program, and recording media
JP2015034777A (en) Navigation device
JP3943301B2 (en) Quiz display method for navigation device
JP2010066198A (en) In-vehicle information processing device, information processing method, and program
JP5893373B2 (en) Display device, program, and display method
JP2005186797A (en) In-vehicle device
WO2011048842A1 (en) Information provision device, information provision system, information provision method, and program
JP2004150824A (en) Utility pole location navigation system and recording medium for inputting destination information for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230314

R150 Certificate of patent or registration of utility model

Ref document number: 7250378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150