JP6023874B2 - Display control device, display control method, display control program, and computer-readable recording medium - Google Patents

Display control device, display control method, display control program, and computer-readable recording medium Download PDF

Info

Publication number
JP6023874B2
JP6023874B2 JP2015509819A JP2015509819A JP6023874B2 JP 6023874 B2 JP6023874 B2 JP 6023874B2 JP 2015509819 A JP2015509819 A JP 2015509819A JP 2015509819 A JP2015509819 A JP 2015509819A JP 6023874 B2 JP6023874 B2 JP 6023874B2
Authority
JP
Japan
Prior art keywords
display control
display
user
probability
operation button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015509819A
Other languages
Japanese (ja)
Other versions
JPWO2014162570A1 (en
Inventor
直明 堀内
直明 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Application granted granted Critical
Publication of JP6023874B2 publication Critical patent/JP6023874B2/en
Publication of JPWO2014162570A1 publication Critical patent/JPWO2014162570A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures

Description

本発明は、表示制御装置、表示制御方法、表示制御プログラムおよびコンピュータが読み取り可能な記録媒体に関する。   The present invention relates to a display control device, a display control method, a display control program, and a computer-readable recording medium.

近年、ユーザの現在地周辺の地図をディスプレイに表示し、現在地周辺の地理をユーザに案内するナビゲーション装置がある。一般的に、このようなナビゲーション装置のディスプレイにはタッチパネル式のディスプレイが採用され、ナビゲーション装置はディスプレイにユーザからの操作を受け付けるための操作ボタンも表示したりする。また、従来、ユーザの移動履歴からユーザの移動先を予測し、予測された移動先に関する広告などをユーザに提示するようにした技術がある(例えば下記特許文献1を参照)。   In recent years, there is a navigation device that displays a map around a user's current location on a display and guides the user around the current location. Generally, a touch panel display is adopted as the display of such a navigation device, and the navigation device also displays an operation button for accepting an operation from a user on the display. Conventionally, there is a technique in which a user's destination is predicted from the user's movement history and an advertisement related to the predicted destination is presented to the user (see, for example, Patent Document 1 below).

特開2005−315885号公報JP-A-2005-315585

しかしながら、従来技術にあっては、例えば、ディスプレイに表示される地図の見やすさと、ディスプレイに表示される操作ボタンによるユーザの操作性との両立を図ることが難しいという問題が一例として挙げられる。   However, in the related art, for example, there is a problem that it is difficult to achieve both ease of viewing a map displayed on a display and user operability using an operation button displayed on the display.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる表示制御装置は、ユーザの操作を受け付ける操作受付手段として機能する表示手段、を備える表示制御装置において、移動体の移動状態における操作履歴に基づき、過去の前記移動状態においてユーザにより各操作が行われた確率を算出し、当該確率が所定確率以上である操作ボタンをユーザにより受け付けられる可能性が高い操作と予測する予測手段と、ユーザにより受け付けられる可能性が高い操作に対応する操作ボタンを目立たせて前記表示手段に表示させる表示制御手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the display control device according to the invention of claim 1 is a display control device including display means functioning as operation reception means for receiving a user operation. Prediction that calculates the probability that each operation has been performed by the user in the past movement state based on the operation history in the state, and predicts that an operation button with the probability equal to or higher than a predetermined probability is likely to be accepted by the user And display control means for conspicuously displaying operation buttons corresponding to operations that are likely to be received by the user to be displayed on the display means.

また、請求項6の発明にかかる表示制御方法は、ユーザの操作を受け付ける操作受付手段として機能する表示手段、を備える表示制御装置が行う表示制御方法において、移動体の移動状態における操作履歴に基づき、過去の前記移動状態においてユーザにより各操作が行われた確率を算出し、当該確率が所定確率以上である操作ボタンをユーザにより受け付けられる可能性が高い操作と予測する予測工程と、ユーザにより受け付けられる可能性が高い操作に対応する操作ボタンを目立たせて前記表示手段に表示させる表示制御工程と、を含むことを特徴とする。   According to a sixth aspect of the present invention, there is provided a display control method according to a display control method performed by a display control device including a display unit that functions as an operation receiving unit that receives a user operation. Calculating a probability that each operation has been performed by the user in the past movement state, and predicting an operation button with a high probability that the operation is likely to be received by the user, and accepting by the user And a display control step of causing the display means to display the operation buttons corresponding to operations that are highly likely to be performed.

また、請求項7の発明にかかる表示制御プログラムは、請求項6に記載の表示制御方法をコンピュータに実行させることを特徴とする。   A display control program according to a seventh aspect of the invention causes a computer to execute the display control method according to the sixth aspect.

また、請求項8の発明にかかるコンピュータが読み取り可能な記録媒体は、請求項7に記載の表示制御プログラムを記憶したことを特徴とする。   A computer-readable recording medium according to an eighth aspect of the invention stores the display control program according to the seventh aspect.

図1は、本発明の実施の形態にかかる表示制御装置の機能的構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of a display control apparatus according to an embodiment of the present invention. 図2は、本実施の形態の表示制御装置が行う処理の一例を示すフローチャートである。FIG. 2 is a flowchart illustrating an example of processing performed by the display control apparatus according to the present embodiment. 図3は、本実施例のナビゲーション装置のハードウェア構成を示すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration of the navigation apparatus according to the present embodiment. 図4は、本実施例の操作履歴情報の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of operation history information according to the present embodiment. 図5は、本実施例のナビゲーション装置が行う処理の一例を示す説明図(その1)である。FIG. 5 is an explanatory diagram (part 1) illustrating an example of processing performed by the navigation device according to the present embodiment. 図6は、本実施例のナビゲーション装置が行う処理の一例を示す説明図(その2)である。FIG. 6 is an explanatory diagram (part 2) illustrating an example of processing performed by the navigation device of the present embodiment. 図7は、本実施例のナビゲーション装置による操作ボタンの表示例を示す説明図である。FIG. 7 is an explanatory diagram showing a display example of operation buttons by the navigation device of the present embodiment.

以下に添付図面を参照して、本発明にかかる表示制御装置、表示制御方法、表示制御プログラムおよびコンピュータが読み取り可能な記録媒体の好適な実施の形態を詳細に説明する。   Exemplary embodiments of a display control device, a display control method, a display control program, and a computer-readable recording medium according to the present invention will be explained below in detail with reference to the accompanying drawings.

(表示制御装置の概要)
まず、本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかる表示制御装置の機能的構成を示すブロック図である。図1に示す表示制御装置100は、例えば車両などの移動体に搭載されて用いられる。以下の本実施の形態において、表示制御装置100を搭載した移動体を単に「移動体」と略し、表示制御装置100のユーザ(利用者)を単に「ユーザ」と略す。なお、表示制御装置100はユーザにより携行されて用いられてもよく、この場合、移動体はユーザ自身になる。
(Outline of display control device)
First, an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a functional configuration of a display control apparatus according to an embodiment of the present invention. The display control apparatus 100 shown in FIG. 1 is used by being mounted on a moving body such as a vehicle. In the following embodiment, a moving body equipped with the display control apparatus 100 is simply abbreviated as “moving body”, and a user (user) of the display control apparatus 100 is simply abbreviated as “user”. In addition, the display control apparatus 100 may be carried and used by the user, and in this case, the moving body is the user himself.

図1に示すように、表示制御装置100は表示部101と表示制御部102とを含む構成である。表示部101は、移動体の移動状態を表示するとともにユーザの操作を受け付ける操作受付手段として機能する。例えば、表示部101はタッチパネル式のディスプレイにより実現される。表示部101は表示制御部102により制御される。   As shown in FIG. 1, the display control device 100 includes a display unit 101 and a display control unit 102. The display unit 101 functions as an operation receiving unit that displays a moving state of the moving body and receives a user operation. For example, the display unit 101 is realized by a touch panel display. The display unit 101 is controlled by the display control unit 102.

すなわち、表示制御部102は表示部101を制御して、表示部101に移動体の移動状態を表示させる。ここで、移動状態は、移動体の位置、移動体が移動している日時、移動体が移動中の道路の属性などからなる状態である。例えば、表示制御装置100は取得部103を備える。取得部103は移動体の移動状態を特定するための情報を取得する。例えば、取得部103は、移動体の現在地を示す情報、現在の日時を示す情報、地図データを取得する。   That is, the display control unit 102 controls the display unit 101 to display the moving state of the moving body on the display unit 101. Here, the moving state is a state including the position of the moving body, the date and time when the moving body is moving, the attribute of the road on which the moving body is moving, and the like. For example, the display control apparatus 100 includes an acquisition unit 103. The acquisition unit 103 acquires information for specifying the moving state of the moving object. For example, the acquisition unit 103 acquires information indicating the current location of the moving object, information indicating the current date and time, and map data.

例えば、表示制御部102は取得部103により取得された移動体の現在地を示す情報および地図データに基づいて、表示部101に移動体の現在地周辺の地図を表示させる。そして、表示制御部102はこの地図において移動体の現在地と対応する位置には移動体が位置することを示すアイコンなどを表示させる。これにより、表示制御部102は移動体の現在地や移動体が移動中の道路の属性(例えば有料道路か一般道かを示す情報)を表示部101に表示させることができる。また、表示制御部102は取得部103により取得された現在の日時を示す情報に基づいて表示部101に現在の日時を表示させる。   For example, the display control unit 102 causes the display unit 101 to display a map around the current location of the mobile object based on the information indicating the current location of the mobile object acquired by the acquisition unit 103 and the map data. Then, the display control unit 102 displays an icon indicating that the moving body is located at a position corresponding to the current location of the moving body on the map. As a result, the display control unit 102 can cause the display unit 101 to display the current location of the moving body and the attributes of the road on which the moving body is moving (for example, information indicating whether the road is a toll road or a general road). Further, the display control unit 102 causes the display unit 101 to display the current date and time based on information indicating the current date and time acquired by the acquisition unit 103.

また、表示制御部102は表示部101を制御して、表示部101にユーザからの操作を受け付けるための操作ボタンを表示させる。具体的に、表示制御部102は、移動体の現在の移動状態と、過去において現在の移動状態と同じ移動状態であったときのユーザの操作履歴とに基づいて、ユーザから今後の操作を受け付けるための操作ボタンを表示部101に表示させる。   Further, the display control unit 102 controls the display unit 101 to display an operation button for accepting an operation from the user on the display unit 101. Specifically, the display control unit 102 receives a future operation from the user based on the current movement state of the moving object and the user's operation history when the movement state is the same as the current movement state in the past. Operation buttons are displayed on the display unit 101.

例えば、表示制御装置100は予測部104を備える。予測部104は、移動体の現在の移動状態と、過去において現在の移動状態と同じ移動状態であったときのユーザの操作履歴とに基づいて、ユーザからの今後の操作(ユーザが所望の操作)を予測する。例えば、予測部104は、過去において現在の移動状態と同じ移動状態であったときにユーザにより各操作が行われた確率を算出し、当該確率に基づいて、ユーザの今後の操作を予測する。   For example, the display control apparatus 100 includes a prediction unit 104. Based on the current movement state of the moving object and the user's operation history when the movement state is the same as the current movement state in the past, the prediction unit 104 performs future operations from the user (operations desired by the user). ). For example, the prediction unit 104 calculates the probability that each operation has been performed by the user when the current movement state is the same as the current movement state in the past, and predicts the user's future operation based on the probability.

そして、表示制御部102は予測部104による予測結果に基づいて表示させる操作ボタンやこの操作ボタンの表示態様を決定する。例えば、操作ボタンの表示態様としては、表示位置、表示サイズ、表示色などを挙げることができる。   Then, the display control unit 102 determines an operation button to be displayed based on a prediction result by the prediction unit 104 and a display mode of the operation button. For example, the display mode of the operation buttons can include a display position, a display size, a display color, and the like.

例えば、表示制御部102は、予測部104により行われる可能性が高いと予測された操作に対応する操作ボタンほど、その表示位置が表示画面上において上部へ来るように各操作ボタンの表示位置を決定する。また、例えば、表示制御部102は、予測部104により行われる可能性が高いと予測された操作に対応する操作ボタンほど、その表示サイズが大きくなるように各操作ボタンの表示位置を決定する。さらに、例えば、表示制御部102は、予測部104により行われる可能性が高いと予測された操作に対応する操作ボタンほど、その表示色が濃くなるように各操作ボタンの表示位置を決定する。   For example, the display control unit 102 sets the display position of each operation button so that the operation button corresponding to the operation that is predicted to be performed by the prediction unit 104 has a higher display position on the display screen. decide. For example, the display control unit 102 determines the display position of each operation button so that the operation button corresponding to the operation predicted to be performed by the prediction unit 104 has a larger display size. Further, for example, the display control unit 102 determines the display position of each operation button so that the operation button corresponding to the operation that is predicted to be performed by the prediction unit 104 is darker.

そして、表示制御部102は決定した表示態様で操作ボタンを表示部101に表示させる。なお、表示制御装置100は表示部101に表示させた操作ボタンにユーザが触れることによりユーザから操作を受け付けた場合、ユーザが触れた操作ボタンに対応する各種処理を行う。   Then, the display control unit 102 causes the display unit 101 to display operation buttons in the determined display mode. The display control device 100 performs various processes corresponding to the operation button touched by the user when the user receives an operation from the user by touching the operation button displayed on the display unit 101.

(表示制御装置が行う処理)
次に、表示制御装置100が行う処理の一例について説明する。図2は、本実施の形態の表示制御装置が行う処理の一例を示すフローチャートである。例えば、表示制御装置100は起動中に所定間隔で(例えば1秒毎に)図2に示す処理を行う。
(Processing performed by the display control device)
Next, an example of processing performed by the display control apparatus 100 will be described. FIG. 2 is a flowchart illustrating an example of processing performed by the display control apparatus according to the present embodiment. For example, the display control apparatus 100 performs the process shown in FIG. 2 at predetermined intervals (for example, every second) during startup.

図2に示すように、まず、表示制御装置100は移動体の現在の移動状態を取得する(ステップS201)。つづいて、表示制御装置100は取得された現在の移動状態と、過去において現在の移動状態と同じ移動状態であったときのユーザの操作履歴とに基づく操作ボタンを表示部101に表示させ(ステップS202)、図2に示す処理を終了する。   As shown in FIG. 2, first, the display control apparatus 100 acquires the current movement state of the moving body (step S201). Subsequently, the display control apparatus 100 causes the display unit 101 to display operation buttons based on the acquired current movement state and the user's operation history when the movement state is the same as the current movement state in the past (step S101). S202), the process shown in FIG.

なお、例えば、表示制御装置100は表示部101に表示させた操作ボタンにユーザが触れることによりユーザから操作を受け付けた場合、ユーザが触れた操作ボタンに対応する各種処理を実行する。   For example, when the user touches an operation button displayed on the display unit 101 and receives an operation from the user, the display control apparatus 100 executes various processes corresponding to the operation button touched by the user.

以上に説明したように、表示制御装置100は過去において現在の移動状態と同じ移動状態であったときのユーザの操作履歴に基づく操作ボタンを表示部101に表示させる。このため、表示制御装置100はユーザが所望する操作に対応する操作ボタンを表示部101に表示させることができ、この操作ボタンを用いたユーザの操作入力を簡略化することができる。これにより、表示制御装置100は表示部101に表示させた操作ボタンによるユーザの操作性を高めることができる。   As described above, the display control apparatus 100 causes the display unit 101 to display the operation buttons based on the user operation history when the movement state is the same as the current movement state in the past. For this reason, the display control apparatus 100 can display the operation button corresponding to the operation desired by the user on the display unit 101, and can simplify the user's operation input using the operation button. Thereby, the display control apparatus 100 can improve the user operability by the operation buttons displayed on the display unit 101.

また、表示制御装置100は、ユーザにより行われる確率が高いと予測される操作に対応する操作ボタンをユーザにとって目立つものとなるような表示態様で表示することができる。このため、ユーザからすると表示部101の表示画面上において所望の操作に対応する操作ボタンを容易に見つけることができるようになる。したがって、表示制御装置100は、表示部101に表示させた操作ボタンによるユーザの操作性を高めることができる。   Moreover, the display control apparatus 100 can display the operation button corresponding to the operation that is predicted to be performed with high probability by the user in a display mode that is conspicuous for the user. For this reason, the user can easily find an operation button corresponding to a desired operation on the display screen of the display unit 101. Therefore, the display control apparatus 100 can improve user operability by the operation buttons displayed on the display unit 101.

さらに、表示制御装置100は、ユーザにより行われる確率が低いと予測される操作に対応する操作ボタンについては表示部101に表示しないようにしたり、ユーザにより行われる確率が高いと予測される操作に対応する操作ボタンよりも小さく表示したりすることができる。これにより、表示制御装置100は限られた表示部101の表示領域を効率的に利用して、移動体の移動状態(例えば移動体の現在地周辺の地図)をより広範囲の表示領域を用いてユーザに見せることができる。したがって、表示制御装置100は、表示部101に表示させた移動体の移動状態をユーザにとって見やすいものとすることができる。   Furthermore, the display control apparatus 100 does not display operation buttons corresponding to operations predicted to be low by the user on the display unit 101 or performs operations predicted to have a high probability performed by the user. It can be displayed smaller than the corresponding operation button. As a result, the display control apparatus 100 efficiently uses the limited display area of the display unit 101 to change the moving state of the moving object (for example, a map around the current location of the moving object) using the wider display area. Can show. Therefore, the display control apparatus 100 can make it easy for the user to see the moving state of the moving object displayed on the display unit 101.

次に、本発明の実施例について説明する。以下に説明する本発明の実施例は、本発明を車両に搭載されるナビゲーション装置に適用した場合の例である。以下の本実施例において、本実施例のナビゲーション装置のユーザを単に「ユーザ」と略し、本実施例のナビゲーション装置を搭載した車両を「自車両」と略す。   Next, examples of the present invention will be described. The embodiment of the present invention described below is an example when the present invention is applied to a navigation device mounted on a vehicle. In the following present embodiment, the user of the navigation device of the present embodiment is simply abbreviated as “user”, and the vehicle equipped with the navigation device of the present embodiment is abbreviated as “own vehicle”.

(ナビゲーション装置のハードウェア構成)
まず、本実施例のナビゲーション装置のハードウェア構成について説明する。図3は、本実施例のナビゲーション装置のハードウェア構成を示すブロック図である。
(Hardware configuration of navigation device)
First, the hardware configuration of the navigation device of the present embodiment will be described. FIG. 3 is a block diagram illustrating a hardware configuration of the navigation apparatus according to the present embodiment.

図3に示すように、ナビゲーション装置300は、CPU(Central Processing Unit)301と、ROM(Read Only Memory)302と、RAM(Random Access Memory)303と、磁気ディスクドライブ304と、磁気ディスク305と、光ディスクドライブ306と、光ディスク307と、音声I/F(Interface)308と、スピーカ309と、マイク310と、入力デバイス311と、映像I/F312と、ディスプレイ313と、カメラ314と、通信I/F315と、GPSユニット316と、各種センサ317と、を備える。また、各構成部301〜317は、バス320によってそれぞれ接続される。   As shown in FIG. 3, the navigation device 300 includes a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, a RAM (Random Access Memory) 303, a magnetic disk drive 304, a magnetic disk 305, Optical disk drive 306, optical disk 307, audio I / F (Interface) 308, speaker 309, microphone 310, input device 311, video I / F 312, display 313, camera 314, and communication I / F 315 And a GPS unit 316 and various sensors 317. Each component 301 to 317 is connected by a bus 320.

CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302には、ブートプログラム、操作ボタン表示制御プログラムなどの各種プログラムが記録される。なお、これらのプログラムは、ROM302に限らず、磁気ディスク305や光ディスク307などの不揮発性の記録媒体に記録されていてもよい。RAM303は、CPU301のワークエリアとして使用される。   The CPU 301 governs overall control of the navigation device 300. Various programs such as a boot program and an operation button display control program are recorded in the ROM 302. Note that these programs are not limited to the ROM 302, and may be recorded on a non-volatile recording medium such as the magnetic disk 305 or the optical disk 307. The RAM 303 is used as a work area for the CPU 301.

CPU301は、RAM303をワークエリアとして使用しながら、ROM302などに記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。なお、各種プログラムを実行することによって得られる処理結果は、例えば、RAM303に一時的に記録され、必要に応じて読み出される。また、上記の処理結果は、磁気ディスク305や光ディスク307などの不揮発性メモリに記録されることとしてもよい。   The CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 and the like while using the RAM 303 as a work area. Note that the processing results obtained by executing various programs are temporarily recorded in the RAM 303, for example, and read out as necessary. Further, the above processing result may be recorded in a nonvolatile memory such as the magnetic disk 305 or the optical disk 307.

磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取りや書き込みを制御する。磁気ディスク305には、磁気ディスクドライブ304の制御で書き込まれたデータが記録される。例えば、磁気ディスク305としては、HD(Hard Disk)やFD(Flexible Disk)を用いることができる。   The magnetic disk drive 304 controls reading and writing of data with respect to the magnetic disk 305 according to the control of the CPU 301. Data written under the control of the magnetic disk drive 304 is recorded on the magnetic disk 305. For example, as the magnetic disk 305, an HD (Hard Disk) or an FD (Flexible Disk) can be used.

光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取りや書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータの読み出される着脱自在な記録媒体である。例えば、光ディスク307としては、CD(Compact Disc)、DVDを用いることができる。光ディスク307は、書き込み可能な記録媒体を用いることもできる。また、この着脱可能な記録媒体は、光ディスク307のほか、MO(Magneto Optical Disk)、メモリカードなどであってもよい。   The optical disk drive 306 controls reading and writing of data with respect to the optical disk 307 according to the control of the CPU 301. The optical disk 307 is a detachable recording medium from which data is read according to the control of the optical disk drive 306. For example, as the optical disc 307, a CD (Compact Disc) or a DVD can be used. As the optical disk 307, a writable recording medium can be used. In addition to the optical disk 307, the removable recording medium may be an MO (Magneto Optical Disk), a memory card, or the like.

磁気ディスク305または光ディスク307に記録される情報の一例として、現在地の特定、経路探索や経路誘導などに用いられる地図データが挙げられる。地図データは、ノードおよびリンクからなり、移動体(例えば車両)が移動可能な道路を表す道路データや、施設やその他地形(山、川、土地)に関するフィーチャを用いて描画される画像データを含むデータとすることができる。   As an example of information recorded on the magnetic disk 305 or the optical disk 307, map data used for specifying the current location, searching for a route, or guiding a route can be cited. The map data is composed of nodes and links, and includes road data representing roads on which a moving body (for example, a vehicle) can move, and image data drawn using features related to facilities and other terrain (mountains, rivers, land). It can be data.

また、地図データは、施設の名称や住所などを示す文字データなどを含んでいてもよい。これらのデータが表す画像は、ディスプレイ313の表示画面において2次元または3次元に描画される。また、例えば、道路データには、各リンクについての長さ(距離)、道幅、道路種別(高速道路、有料道路、一般道路、私道)など、各リンクに対応する道路の属性を示す情報などが含まれていてもよい。   Further, the map data may include character data indicating the name and address of the facility. An image represented by these data is drawn two-dimensionally or three-dimensionally on the display screen of the display 313. In addition, for example, the road data includes information indicating the attributes of the road corresponding to each link such as the length (distance), road width, road type (highway, toll road, general road, private road) for each link. It may be included.

なお、本実施例では地図データを磁気ディスク305または光ディスク307に記録するようにしたが、これらに限るものではない。地図データは、ナビゲーション装置300のハードウェアと一体に設けられているものに限って記録されているものではなく、ナビゲーション装置300の外部に設けられていてもよい。例えば、この場合、ナビゲーション装置300は、通信I/F315により、ネットワークを介して外部から地図データを取得し、取得した地図データをRAM303や磁気ディスク305などに記録しておき、必要に応じて読み出す。   In this embodiment, the map data is recorded on the magnetic disk 305 or the optical disk 307. However, the present invention is not limited to this. The map data is not limited to the one provided integrally with the hardware of the navigation device 300, and may be provided outside the navigation device 300. For example, in this case, the navigation apparatus 300 acquires map data from the outside via the network by the communication I / F 315, records the acquired map data in the RAM 303, the magnetic disk 305, and the like, and reads out as necessary. .

音声I/F308には、音声出力用のスピーカ309と、入力された音声を音声信号に変換するマイク310とが接続される。音声I/F308は、CPU301の制御にしたがって所定音声(例えばアラーム音)をスピーカ309から出力させたり、マイク310から入力された音声信号をCPU301へ出力したりする。入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、マウス、タッチパネルなどが挙げられる。入力デバイス311は、利用者によって選択されたキーに対応する信号を装置内部へ入力する。   The audio I / F 308 is connected to a speaker 309 for audio output and a microphone 310 that converts the input audio into an audio signal. The audio I / F 308 outputs a predetermined audio (for example, an alarm sound) from the speaker 309 or outputs an audio signal input from the microphone 310 to the CPU 301 under the control of the CPU 301. Examples of the input device 311 include a remote controller having a plurality of keys for inputting characters, numerical values, various instructions, a keyboard, a mouse, a touch panel, and the like. The input device 311 inputs a signal corresponding to the key selected by the user into the apparatus.

映像I/F312には、ディスプレイ313が接続される。例えば、映像I/F312は、ディスプレイ313全体の制御を行うグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいて、ディスプレイ313を表示制御する制御ICなどによって構成される。   A display 313 is connected to the video I / F 312. For example, the video I / F 312 includes a graphic controller that controls the entire display 313, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and image data output from the graphic controller. The display 313 is configured based on a control IC or the like.

ディスプレイ313には、アイコン(例えば自車両の現在地を示すための自車両アイコン)、ナビゲーション装置300に所定動作を行うように指示するための操作ボタン、カーソル、メニュー、ウインドウ、あるいは文字や画像(例えば地図)などの各種データが表示される。例えば、ディスプレイ313としては、CRT、TFT液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどを用いることができる。   The display 313 includes an icon (for example, a host vehicle icon for indicating the current location of the host vehicle), an operation button for instructing the navigation device 300 to perform a predetermined operation, a cursor, a menu, a window, or a character or image (for example, Various data such as maps are displayed. For example, as the display 313, a CRT, a TFT liquid crystal display, a plasma display, an organic EL display, or the like can be used.

なお、映像I/F312は、例えばZバッファ法などの陰面消去法を用いて、表示画面上において操作ボタンが地図画像よりも前面に表示されるようにする。Zバッファ法については公知の技術であるため、ここでの詳細な説明は省略する。カメラ314は自車両の車内または自車両周辺を撮影し、この撮影データを映像I/F312へ入力する。   Note that the video I / F 312 is configured such that the operation buttons are displayed in front of the map image on the display screen by using a hidden surface removal method such as a Z buffer method. Since the Z buffer method is a known technique, a detailed description thereof is omitted here. The camera 314 captures the inside of the host vehicle or the vicinity of the host vehicle, and inputs this shooting data to the video I / F 312.

通信I/F315は、無線を介してネットワークに接続され、ナビゲーション装置300とCPU301とのインターフェースとして機能する。通信I/F315は、さらに、無線を介してインターネットなどの通信網に接続され、この通信網とCPU301とのインターフェースとしても機能する。また、通信I/F315は、テレビ放送やラジオ放送を受信する。   The communication I / F 315 is connected to a network via wireless and functions as an interface between the navigation device 300 and the CPU 301. The communication I / F 315 is further connected to a communication network such as the Internet via wireless, and also functions as an interface between the communication network and the CPU 301. The communication I / F 315 receives a television broadcast or a radio broadcast.

通信網には、LAN、WAN、公衆回線網や携帯電話網などがある。例えば、通信I/F315は、FMチューナー、VICS/ビーコンレシーバ、無線ナビゲーション装置、およびその他のナビゲーション装置300によって構成され、VICSセンターから配信される渋滞や交通規制などの道路交通情報を取得する。ここで、VICSは登録商標である。   Communication networks include LANs, WANs, public line networks and mobile phone networks. For example, the communication I / F 315 includes an FM tuner, a VICS / beacon receiver, a wireless navigation device, and other navigation devices 300, and acquires road traffic information such as traffic congestion and traffic regulations distributed from the VICS center. Here, VICS is a registered trademark.

GPSユニット316は、GPS衛星からのGPSシグナル(電波)を受信し、車両の現在位置を測位する。GPSユニット316により測位された現在位置は、後述する各種センサ317の出力値とともに、CPU301による車両の現在位置の特定に際して利用される。   The GPS unit 316 receives GPS signals (radio waves) from GPS satellites and measures the current position of the vehicle. The current position measured by the GPS unit 316 is used when the CPU 301 specifies the current position of the vehicle together with output values of various sensors 317 described later.

各種センサ317は、自車両(またはナビゲーション装置300)の挙動を計測するための情報を出力する。例えば、各種センサ317には、加速度センサや角速度センサ、車速パルスセンサなどが含まれている。各種センサ317の出力値は、CPU301による車両(またはナビゲーション装置300)の現在位置の特定、加速度の検出、角速度の検出、方位変化量の算出などに利用される。   Various sensors 317 output information for measuring the behavior of the host vehicle (or the navigation device 300). For example, the various sensors 317 include an acceleration sensor, an angular velocity sensor, a vehicle speed pulse sensor, and the like. The output values of the various sensors 317 are used by the CPU 301 for specifying the current position of the vehicle (or the navigation device 300), detecting the acceleration, detecting the angular velocity, calculating the azimuth change amount, and the like.

なお、例えば、図1に示した表示部101は、入力デバイス311、映像I/F312、ディスプレイ313などによりその機能を実現することができる。また、表示制御部102は、CPU301、ROM302、RAM303などによりその機能を実現できる。   Note that, for example, the display unit 101 illustrated in FIG. 1 can realize its functions by the input device 311, the video I / F 312, the display 313, and the like. Further, the display control unit 102 can realize its function by the CPU 301, the ROM 302, the RAM 303, and the like.

(本実施例のナビゲーション装置の操作履歴情報)
次に、ナビゲーション装置300が記憶する操作履歴情報について説明する。図4は、本実施例の操作履歴情報の一例を示す説明図である。図4に示す操作履歴情報は、例えば、ナビゲーション装置300の磁気ディスク305に記憶される。
(Operation history information of the navigation device of this embodiment)
Next, the operation history information stored in the navigation device 300 will be described. FIG. 4 is an explanatory diagram illustrating an example of operation history information according to the present embodiment. The operation history information illustrated in FIG. 4 is stored in the magnetic disk 305 of the navigation device 300, for example.

図4に示すように、操作履歴情報400には所定の移動状態毎のユーザの操作履歴が記憶される。本実施例の場合、移動状態には移動状態αと移動状態βと移動状態γと移動状態δとがある。   As illustrated in FIG. 4, the operation history information 400 stores a user operation history for each predetermined movement state. In the case of the present embodiment, the movement state includes a movement state α, a movement state β, a movement state γ, and a movement state δ.

移動状態αは、自車両がユーザの自宅から所定距離以上離れている場合の移動状態である。例えば、ナビゲーション装置300は起動中に所定周期で(例えば1秒毎に)自車両の現在地を示す情報を取得する。そして、ナビゲーション装置300は、自車両の現在地が地図データにおいてユーザの自宅と定められた位置から所定距離以上離れている場合に移動状態αと判定する。なお、ユーザの自宅の位置は、所定のタイミングで(例えばナビゲーション装置300が初めて起動したときに)ユーザによりナビゲーション装置300に設定される。   The movement state α is a movement state when the host vehicle is separated from the user's home by a predetermined distance or more. For example, the navigation device 300 acquires information indicating the current location of the host vehicle at a predetermined cycle (for example, every second) during startup. And the navigation apparatus 300 determines with the movement state (alpha), when the present location of the own vehicle has left | separated more than predetermined distance from the position determined as a user's home in map data. The user's home position is set in the navigation device 300 by the user at a predetermined timing (for example, when the navigation device 300 is activated for the first time).

移動状態βは、平日の7時から9時までの間にユーザが自宅を出発する場合の移動状態である。例えば、ナビゲーション装置300は起動時に現在の日時(日付および時刻)と自車両の現在地とを示す情報を取得する。そして、ナビゲーション装置300は、現在の日時が平日の7時から9時までの間であり、自車両の現在地がユーザの自宅である場合に移動状態βと判定する。   The movement state β is a movement state when the user leaves the home between 7:00 and 9:00 on weekdays. For example, the navigation device 300 acquires information indicating the current date and time (date and time) and the current location of the host vehicle at the time of activation. And the navigation apparatus 300 determines with the movement state (beta), when the present date is from 7:00 to 9:00 on weekdays and the present location of the own vehicle is a user's home.

移動状態γは、平日の17時から19時までの間にユーザが自宅を出発する場合の移動状態である。例えば、ナビゲーション装置300は起動時に現在の日時(日付および時刻)と自車両の現在地とを示す情報を取得する。そして、ナビゲーション装置300は、現在の日時が平日の17時から19時までの間であり、自車両の現在地がユーザの自宅である場合に移動状態γと判定する。   The movement state γ is a movement state when the user leaves home from 17:00 to 19:00 on weekdays. For example, the navigation device 300 acquires information indicating the current date and time (date and time) and the current location of the host vehicle at the time of activation. And the navigation apparatus 300 determines with the movement state (gamma), when the present date is between 17:00 to 19:00 on a weekday and the present location of the own vehicle is a user's home.

移動状態δは、自車両が有料道路を走行中である場合の移動状態である。例えば、ナビゲーション装置300は起動中に所定周期で(例えば1秒毎に)自車両の現在地を示す情報を取得する。そして、ナビゲーション装置300は、自車両の現在地が地図データにおいて有料道路と定められた道路上の位置である場合に移動状態δと判定する。   The movement state δ is a movement state when the host vehicle is traveling on a toll road. For example, the navigation device 300 acquires information indicating the current location of the host vehicle at a predetermined cycle (for example, every second) during startup. And the navigation apparatus 300 determines with the movement state (delta), when the present location of the own vehicle is a position on the road defined as the toll road in map data.

ところで、図4に示す例において、例えば、移動状態αには10回分のユーザの操作が関連付けて記憶されている。この操作の内訳は、図4において上から、「自宅への経路を表示」、「自宅への経路を表示」、「周辺の飲食店を検索」、「自宅への経路を表示」、「周辺の飲食店を検索」、「自宅への経路を表示」、「周辺の飲食店を検索」、「周辺のコンビニエンスストアを検索」、「周辺のトイレを検索」、「周辺のコンビニエンスストアを検索」である。   In the example shown in FIG. 4, for example, the user's operation for 10 times is stored in association with the movement state α. This operation is broken down from the top in FIG. 4 to “display route to home”, “display route to home”, “search for nearby restaurants”, “display route to home”, “peripheral” ”Search for restaurants in”, “Show route to home”, “Search for nearby restaurants”, “Search for nearby convenience stores”, “Search for nearby toilets”, “Search for nearby convenience stores” It is.

すなわち、操作履歴情報400において移動状態αであるときのユーザによる各操作の確率は、「自宅への経路を表示」が「4/10」、「周辺の飲食店を検索」が「3/10」、「周辺のコンビニエンスストアを検索」が「2/10」、「周辺のトイレを検索」が「1/10」ということになる。これらから、ナビゲーション装置300は、移動状態αであるとき、ユーザにより最も高い確率で行われる操作が「自宅への経路を表示」であり、次に高い確率で行われる操作が「周辺の飲食店を検索」であり、さらにその次に高い確率で行われる操作が「周辺のコンビニエンスストアを検索」であると予測することができる。   That is, in the operation history information 400, the probability of each operation by the user when in the movement state α is “4/10” for “display route to home” and “3/10” for “search for nearby restaurants”. "Search for nearby convenience stores" is "2/10" and "Search for nearby toilets" is "1/10". From these, when the navigation apparatus 300 is in the movement state α, the operation performed with the highest probability by the user is “display route to home”, and the operation performed with the next highest probability is “peripheral restaurants” It is possible to predict that the operation performed with the next highest probability is “search for nearby convenience stores”.

移動状態β、移動状態γ、移動状態δについても移動状態αと同様にして、ナビゲーション装置300はそれぞれの移動状態においてユーザにより行われる確率の高い操作および低い操作を予測可能である。   As for the movement state β, the movement state γ, and the movement state δ, similarly to the movement state α, the navigation apparatus 300 can predict an operation with a high probability and a low operation performed by the user in each movement state.

また、図4に示すように、操作履歴情報400にはそれぞれの操作毎に当該操作が行われた際の日時を示す情報が記憶されてもよい。このようにすれば、例えば、ナビゲーション装置300は古い操作の履歴を順次新しい操作の履歴で上書きしていくことが可能となる。そして、この場合、ナビゲーション装置300は操作履歴情報400のデータ量が肥大化してしまうことを防止することが可能となる。さらに、このようにすることにより、ナビゲーション装置300は、古い操作の履歴を用いてユーザにより行われる操作を予測してしまうことを防止して、ユーザの現状に即した操作の予測が可能となる。   As shown in FIG. 4, the operation history information 400 may store information indicating the date and time when the operation is performed for each operation. In this way, for example, the navigation apparatus 300 can sequentially overwrite the history of old operations with the history of new operations. In this case, the navigation device 300 can prevent the amount of data of the operation history information 400 from being enlarged. Furthermore, by doing in this way, the navigation apparatus 300 can prevent the operation performed by the user from being predicted using the history of the old operation, and can predict the operation in accordance with the current state of the user. .

(本実施例のナビゲーション装置が行う処理の一例)
次に、ナビゲーション装置300が行う処理の一例について説明する。図5は、本実施例のナビゲーション装置が行う処理の一例を示す説明図(その1)である。図5に示す処理は、ナビゲーション装置300が操作履歴情報400を記憶するために行う処理である。例えば、ナビゲーション装置300は起動中に所定周期で(例えば1秒毎に)図5に示す処理を行う。
(Example of processing performed by the navigation device of this embodiment)
Next, an example of processing performed by the navigation device 300 will be described. FIG. 5 is an explanatory diagram (part 1) illustrating an example of processing performed by the navigation device according to the present embodiment. The process illustrated in FIG. 5 is a process performed by the navigation device 300 to store the operation history information 400. For example, the navigation device 300 performs the process shown in FIG. 5 at a predetermined cycle (for example, every second) during startup.

図5に示すように、ナビゲーション装置300は、まず、ユーザからの操作があったか否かを判定する(ステップS501)。ユーザからの操作がなければ(ステップS501:No)、ナビゲーション装置300はそのまま図5に示す処理を終了する。ユーザからの操作があれば(ステップS501:Yes)、ナビゲーション装置300は現在の日時および自車両の現在地を示す情報を取得することにより移動状態を取得する(ステップS502)。   As shown in FIG. 5, the navigation apparatus 300 first determines whether or not there is an operation from the user (step S501). If there is no operation from the user (step S501: No), the navigation apparatus 300 ends the process shown in FIG. If there is an operation from the user (step S501: Yes), the navigation apparatus 300 acquires the moving state by acquiring information indicating the current date and time and the current location of the host vehicle (step S502).

つづいて、ナビゲーション装置300は、取得された移動状態が所定の移動状態であるか否かを判定する(ステップS503)。ステップS503において、ナビゲーション装置300は前述の移動状態α、移動状態β、移動状態γ、移動状態δのいずれかの移動状態であるかを判定する。移動状態α、移動状態β、移動状態γ、移動状態δと判定する判定条件については前述の通りである。   Subsequently, the navigation device 300 determines whether or not the acquired movement state is a predetermined movement state (step S503). In step S503, the navigation apparatus 300 determines whether the moving state is the moving state α, the moving state β, the moving state γ, or the moving state δ described above. The determination conditions for determining the movement state α, the movement state β, the movement state γ, and the movement state δ are as described above.

ナビゲーション装置300は所定の移動状態であると判定したら(ステップS503:Yes)、操作履歴情報400においてこの移動状態にステップS501で肯定判定させたユーザの操作を関連付けて記憶し(ステップS504)、図5に示す処理を終了する。ステップS503において、ナビゲーション装置300は所定の移動状態でないと判定したら(ステップS503:No)、そのまま図5に示す処理を終了する。   If it is determined that the navigation device 300 is in a predetermined movement state (step S503: Yes), the operation history information 400 stores the movement state in association with the user operation that was affirmed in step S501 (step S504). The process shown in FIG. If it is determined in step S503 that the navigation device 300 is not in the predetermined movement state (step S503: No), the processing shown in FIG.

図6は、本実施例のナビゲーション装置が行う処理の一例を示す説明図(その2)である。図6に示す処理は、ナビゲーション装置300がディスプレイ313にユーザの操作履歴に基づく操作ボタンを表示するために行う処理である。例えば、ナビゲーション装置300は起動中に所定周期で(例えば1秒毎に)図6に示す処理を行う。   FIG. 6 is an explanatory diagram (part 2) illustrating an example of processing performed by the navigation device of the present embodiment. The process illustrated in FIG. 6 is a process performed by the navigation device 300 to display operation buttons based on the user operation history on the display 313. For example, the navigation apparatus 300 performs the process shown in FIG. 6 at a predetermined cycle (for example, every second) during startup.

図6に示すように、ナビゲーション装置300は、まず、現在の日時および自車両の現在地を示す情報を取得することにより移動状態を取得する(ステップS601)。つづいて、ナビゲーション装置300は、取得された移動状態が所定の移動状態であるか否かを判定する(ステップS602)。ステップS602において、ナビゲーション装置300は前述の移動状態α、移動状態β、移動状態γ、移動状態δのいずれかの移動状態であるかを判定する。移動状態α、移動状態β、移動状態γ、移動状態δと判定する判定条件については前述の通りである。   As shown in FIG. 6, the navigation apparatus 300 first acquires the movement state by acquiring information indicating the current date and time and the current location of the host vehicle (step S601). Subsequently, the navigation device 300 determines whether or not the acquired movement state is a predetermined movement state (step S602). In step S602, the navigation apparatus 300 determines whether the movement state α, the movement state β, the movement state γ, or the movement state δ described above is in the movement state. The determination conditions for determining the movement state α, the movement state β, the movement state γ, and the movement state δ are as described above.

ナビゲーション装置300は所定の移動状態でないと判定したら(ステップS602:No)、そのまま図6に示す処理を終了する。一方、ナビゲーション装置300は所定の移動状態であると判定したら(ステップS602:Yes)、操作履歴情報400を参照し、過去において現在の移動状態と同じ移動状態であったときにユーザにより行われた各操作の確率を算出する(ステップS603)。この確率の算出方法については前述の通りである。   If it is determined that the navigation device 300 is not in the predetermined moving state (step S602: No), the processing shown in FIG. On the other hand, when it is determined that the navigation device 300 is in the predetermined movement state (step S602: Yes), the operation history information 400 is referred to and the navigation apparatus 300 is performed by the user when the movement state is the same as the current movement state in the past. The probability of each operation is calculated (step S603). The calculation method of this probability is as described above.

つづいて、ナビゲーション装置300は算出された各操作の確率に基づいてディスプレイ313に表示させる操作ボタンを決定する(ステップS604)。ステップS604において、例えば、ナビゲーション装置300は算出された確率の高い順に所定数(例えば3つ)の操作に対応する操作ボタンを表示させると決定する。   Subsequently, the navigation device 300 determines an operation button to be displayed on the display 313 based on the calculated probability of each operation (step S604). In step S604, for example, the navigation device 300 determines to display operation buttons corresponding to a predetermined number (for example, three) of operations in descending order of the calculated probability.

つづいて、ナビゲーション装置300は算出された各操作の確率に基づいてディスプレイ313に表示させる各操作ボタンの表示位置、表示サイズ、および表示色を決定する(ステップS605)。例えば、ステップS605において、ナビゲーション装置300は算出された確率の高い操作の操作ボタンから降順に表示画面上で配置されるようにそれぞれの操作ボタンの表示位置を決定する。   Subsequently, the navigation device 300 determines the display position, display size, and display color of each operation button to be displayed on the display 313 based on the calculated probability of each operation (step S605). For example, in step S605, the navigation device 300 determines the display position of each operation button so that the operation buttons with the calculated probabilities are arranged on the display screen in descending order.

また、ナビゲーション装置300は算出された確率の高い操作の操作ボタンほど、その表示サイズが大きくなるようにそれぞれの操作ボタンの表示サイズを決定する。さらに、ナビゲーション装置300は算出された確率の高い操作の操作ボタンほど、ユーザにとって見やすいものとなるように(例えば濃い色となるように)各操作ボタンの表示色を決定する。また、ナビゲーション装置300はユーザにとって見やすいものとなるように各操作ボタンの透過率を決定してもよい。この場合、例えば、ナビゲーション装置300は算出された確率の高い操作の操作ボタンほど、透過率が低くなるように決定する。   In addition, the navigation device 300 determines the display size of each operation button so that the operation button with the higher probability of operation is larger in display size. Furthermore, the navigation device 300 determines the display color of each operation button so that the operation button with the higher calculated probability is easier to see for the user (for example, a darker color). In addition, the navigation device 300 may determine the transmittance of each operation button so that it is easy for the user to see. In this case, for example, the navigation device 300 determines that the transmittance of the operation button with the higher calculated probability is lower.

そして、ナビゲーション装置300は、ステップS604にて表示させると決定した操作ボタンを、ステップS605にて決定された表示位置、表示サイズ、表示色にてディスプレイ313に表示し(ステップS606)、図6に示す処理を終了する。なお、ナビゲーション装置300は、ディスプレイ313に表示させた操作ボタンにユーザが触れることによりユーザから操作を受け付けた場合、ユーザが触れた操作ボタンに対応する各種処理を実行する。例えば、ナビゲーション装置300は、「自宅への経路を表示」の操作ボタンがユーザにより触れられた場合、自車両の現在地からユーザの自宅までの経路を探索し、探索された経路をディスプレイ313に表示させる。   Then, the navigation device 300 displays the operation buttons determined to be displayed in step S604 on the display 313 in the display position, display size, and display color determined in step S605 (step S606), as shown in FIG. The processing shown in FIG. Note that the navigation device 300 executes various processes corresponding to the operation button touched by the user when the user receives an operation from the user by touching the operation button displayed on the display 313. For example, when the operation button “display route to home” is touched by the user, the navigation device 300 searches for a route from the current location of the vehicle to the user's home and displays the searched route on the display 313. Let

(本実施例のナビゲーション装置による操作ボタンの表示例)
次に、ナビゲーション装置300による操作ボタンの表示例について説明する。図7は、本実施例のナビゲーション装置による操作ボタンの表示例を示す説明図である。図7には本実施例の一例として、自車両が移動状態αのときのディスプレイ313の表示画面を表示している。
(Example of operation button display by the navigation device of this embodiment)
Next, a display example of operation buttons by the navigation device 300 will be described. FIG. 7 is an explanatory diagram showing a display example of operation buttons by the navigation device of the present embodiment. FIG. 7 shows a display screen of the display 313 when the host vehicle is in the moving state α as an example of the present embodiment.

図7に示すように、ナビゲーション装置300は自車両の現在地周辺の地図700をディスプレイ313に表示する。また、ナビゲーション装置300は地図700において自車両の現在地と対応する位置には自車両の現在地を示すための自車両アイコン701を表示する。また、ナビゲーション装置300は自車両アイコン701と同様にユーザの自宅の位置を示すための自宅アイコンも表示可能であるが、図7の例の場合、自車両が移動状態αであるため(すなわち自車両がユーザの自宅から所定距離以上離れているため)、ディスプレイ313には自宅アイコンが表示されていない。   As shown in FIG. 7, the navigation device 300 displays a map 700 around the current location of the host vehicle on the display 313. In addition, the navigation apparatus 300 displays a host vehicle icon 701 for indicating the current location of the host vehicle at a position corresponding to the current location of the host vehicle in the map 700. The navigation device 300 can also display a home icon for indicating the user's home position in the same manner as the own vehicle icon 701. However, in the example of FIG. 7, the own vehicle is in the moving state α (ie, the own vehicle icon 701). The home icon is not displayed on the display 313 because the vehicle is more than a predetermined distance away from the user's home.

前述のように、ナビゲーション装置300は、移動状態αのとき、操作履歴情報400に基づきディスプレイ313に操作ボタンを表示する。ここで、図4に示したように、操作履歴情報400において移動状態αであるときのユーザによる各操作の確率は、「自宅への経路を表示」が「4/10」、「周辺の飲食店を検索」が「3/10」、「周辺のコンビニエンスストアを検索」が「2/10」、「周辺のトイレを検索」が「1/10」であったとする。   As described above, the navigation device 300 displays the operation buttons on the display 313 based on the operation history information 400 in the movement state α. Here, as shown in FIG. 4, the probability of each operation by the user when the operation history information 400 is in the movement state α is “4/10” for “display route to home”, “ Assume that “search for stores” is “3/10”, “search for nearby convenience stores” is “2/10”, and “search for nearby toilets” is “1/10”.

この場合、ナビゲーション装置300が算出された確率の高い順に3つの操作の操作ボタンを表示させると決定すると、「自宅への経路を表示」の操作ボタン、「周辺の飲食店を検索」の操作ボタン、「周辺のコンビニエンスストアを検索」の操作ボタンが表示させる操作ボタンとして決定されることになる。このため、図7に示すようにこれらの操作ボタン711〜713がディスプレイ313に表示される。   In this case, if the navigation device 300 determines to display the operation buttons for the three operations in the descending order of the calculated probability, the operation button for “display route to home” and the operation button for “search for nearby restaurants” are displayed. The operation button of “search for nearby convenience stores” is determined as an operation button to be displayed. Therefore, these operation buttons 711 to 713 are displayed on the display 313 as shown in FIG.

なお、ここでは複数の操作ボタンを表示させると決定したがこれに限らない。例えば、ナビゲーション装置300は、算出された確率が最も高い操作の操作ボタンのみを表示させる操作ボタンとして決定してもよい。さらに、ナビゲーション装置300は、算出された確率が所定確率以上である操作の操作ボタンを表示させる操作ボタンとして決定してもよい。表示させる操作ボタンを減らすほど、ナビゲーション装置300は操作ボタンに占有されるディスプレイ313の表示領域を減らすことができる。   Although it has been determined here that a plurality of operation buttons are displayed, the present invention is not limited to this. For example, the navigation apparatus 300 may determine the operation buttons that display only the operation buttons with the highest calculated probability. Further, the navigation device 300 may determine the operation button for displaying an operation button for an operation whose calculated probability is equal to or higher than a predetermined probability. As the number of operation buttons to be displayed is reduced, the navigation apparatus 300 can reduce the display area of the display 313 occupied by the operation buttons.

また、ここで、それぞれの操作ボタン711〜713の表示位置に着目すれば、「自宅への経路を表示」の操作ボタン711から、「周辺の飲食店を検索」の操作ボタン712、「周辺のコンビニエンスストアを検索」の操作ボタン713といったように、算出された確率の高い操作の操作ボタンから降順で表示画面上に配置されていることがわかる。   Here, if attention is paid to the display positions of the operation buttons 711 to 713, the operation button 712 for “display a route to home”, the operation button 712 for “search for nearby restaurants”, “ It can be seen that the operation buttons 713 “search for convenience store” are arranged on the display screen in descending order from the operation buttons with the calculated probabilities.

また、それぞれの操作ボタン711〜713の表示サイズに着目すれば、「自宅への経路を表示」の操作ボタン711が最も大きく、ついで「周辺の飲食店を検索」の操作ボタン712が大きく、「周辺のコンビニエンスストアを検索」の操作ボタン713が最も小さくなっている。これにより、ナビゲーション装置300では算出された確率の高い操作の操作ボタンほど、大きな表示サイズでディスプレイ313に表示されることがわかる。   When attention is paid to the display sizes of the respective operation buttons 711 to 713, the operation button 711 of “display route to home” is the largest, and then the operation button 712 of “search for nearby restaurants” is large. The operation button 713 for “search for nearby convenience stores” is the smallest. As a result, it can be seen that in the navigation device 300, an operation button with a higher calculated probability is displayed on the display 313 in a larger display size.

さらに、それぞれの操作ボタン711〜713の表示色に着目すれば、「自宅への経路を表示」の操作ボタン711の濃度が最も濃く、ついで「周辺の飲食店を検索」の操作ボタン712の濃度が濃く、「周辺のコンビニエンスストアを検索」の操作ボタン713の濃度が最も薄くなっている。これにより、ナビゲーション装置300では算出された確率の高い操作の操作ボタンほど、操作ボタンの表示色の濃度が濃くなり、ユーザにとって見やすい操作ボタンとなることがわかる。   Further, if attention is paid to the display colors of the operation buttons 711 to 713, the density of the operation button 711 of “display route to home” is the highest, and then the density of the operation button 712 of “search for nearby restaurants”. Is dark, and the density of the operation button 713 of “search for nearby convenience stores” is the lightest. Thus, it can be seen that the navigation device 300 has an operation button with a high probability of operation, and the density of the display color of the operation button becomes darker and the operation button is easier to see for the user.

以上に説明したように、ナビゲーション装置300は、過去において現在の移動状態と同じ移動状態であったときにユーザにより行われた操作に基づいてユーザが所望の操作を予測し、この操作に対応する操作ボタンをディスプレイ313に表示させることができる。これにより、ナビゲーション装置300は、ディスプレイ313に表示させた操作ボタンを用いるユーザの操作入力を簡略化することができる。   As described above, the navigation apparatus 300 predicts a desired operation based on an operation performed by the user when the movement state is the same as the current movement state in the past, and responds to this operation. Operation buttons can be displayed on the display 313. Thereby, the navigation apparatus 300 can simplify the user's operation input using the operation button displayed on the display 313.

また、ナビゲーション装置300は、過去において現在の移動状態と同じ移動状態であったときにユーザにより行われた操作に基づいてユーザが所望の操作を予測し、この操作に対応する操作ボタンをユーザにとって目立つものとなるようにディスプレイ313に表示させることができる。このため、ユーザからするとディスプレイ313の表示画面上において所望の操作に対応する操作ボタンを容易に見つけることができるようになる。したがって、ナビゲーション装置300は、ディスプレイ313に表示させた操作ボタンによるユーザの操作性を高めることができる。   In addition, the navigation device 300 predicts a desired operation based on an operation performed by the user when the movement state is the same as the current movement state in the past, and provides an operation button corresponding to the operation to the user. It can be displayed on the display 313 so as to be conspicuous. For this reason, the user can easily find an operation button corresponding to a desired operation on the display screen of the display 313. Therefore, the navigation apparatus 300 can improve the operability of the user by the operation buttons displayed on the display 313.

また、ナビゲーション装置300はユーザにより行われる確率が高いと予測される操作ボタンのみをディスプレイ313に表示させることができ、ユーザにとって必要性の低いと予測される操作ボタンによりディスプレイ313の表示領域が占有されてしまうことを防止することができる。これにより、ナビゲーション装置300は、ディスプレイ313の表示領域を効率的に利用することができる。すなわち、ナビゲーション装置300は、ディスプレイ313に表示させた地図において操作ボタンにより遮蔽される部分の面積を小さくすることができ、より広範囲な地図をユーザに見せることができ、ユーザの利便性を高めることができる。   In addition, the navigation device 300 can display only the operation buttons predicted to have a high probability of being performed by the user on the display 313, and the display area of the display 313 is occupied by the operation buttons predicted to be less necessary for the user. Can be prevented. Thereby, the navigation apparatus 300 can use the display area of the display 313 efficiently. In other words, the navigation device 300 can reduce the area of the portion shielded by the operation button in the map displayed on the display 313, and can show a wider range of the map to the user, improving the convenience for the user. Can do.

以上に説明したように、本発明によれば、表示手段に表示される移動体の移動状態の見やすさと、表示手段に表示される操作ボタンを用いた操作の操作性との両立を図ることができ、ユーザの利便性を高めることができる。   As described above, according to the present invention, both the visibility of the moving state of the moving body displayed on the display unit and the operability of the operation using the operation button displayed on the display unit can be achieved. This can improve user convenience.

なお、本実施の形態で説明した表示制御方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション、スマートフォンなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、メモリカード、CD−ROM、DVDなどのコンピュータが読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、このプログラムは、インターネットなどのネットワークを介して配布することが可能なものであってもよい。   The display control method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer, a workstation, or a smartphone. This program is recorded on a computer-readable recording medium such as a hard disk, a memory card, a CD-ROM, and a DVD, and is executed by being read from the recording medium by the computer. Further, this program may be distributed via a network such as the Internet.

100 表示制御装置
101 表示部
102 表示制御部
DESCRIPTION OF SYMBOLS 100 Display control apparatus 101 Display part 102 Display control part

Claims (8)

ユーザの操作を受け付ける操作受付手段として機能する表示手段、を備える表示制御装置において、
動体の移動状態における操作履歴に基づき、過去の前記移動状態においてユーザにより各操作が行われた確率を算出し、当該確率が所定確率以上である操作ボタンをユーザにより受け付けられる可能性が高い操作と予測する予測手段と、
ユーザにより受け付けられる可能性が高い操作に対応する操作ボタンを目立たせて前記表示手段に表示させる表示制御手段と、
を備えたことを特徴とする表示制御装置。
In a display control device comprising display means that functions as operation accepting means for accepting user operations,
Based on the operation history that put the moving state of the moving body to calculate a past probability each operation by the user in the moving state has been performed, the possibility that the probability is accepted by a user the operation button is predetermined probability or higher A predicting means for predicting a highly likely operation,
Display control means for the operation buttons likely to be accepted by the user corresponds to a high operation standing eye is displayed on the display means,
Display control device characterized by comprising a.
前記表示制御手段は、数の操作のうち、他の操作よりもユーザにより受け付けられる確率が高い操作に対応する操作ボタンほど、前記他の操作に対応する操作ボタンよりも大きく表示させることを特徴とする請求項1に記載の表示制御装置。 Wherein the display control unit, out of the multiple operation, as the operation buttons probability to be accepted by the user corresponds to a high operation than other operations, characterized thereby displayed larger than the operation button corresponding to the other operation The display control apparatus according to claim 1. 前記表示制御手段は、複数の操作のうち、他の操作よりもユーザにより受け付けられる確率が高い操作に対応する操作ボタンほど、前記他の操作に対応する操作ボタンよりも表示色を濃く表示させることを特徴とする請求項1乃至2に記載の表示制御装置。The display control means displays an operation button corresponding to an operation having a higher probability of being accepted by the user than other operations among a plurality of operations, with a darker display color than an operation button corresponding to the other operation. The display control apparatus according to claim 1, wherein: 前記表示制御手段は、複数の操作のうち、他の操作よりもユーザにより受け付けられる確率が高い操作に対応する操作ボタンから、降順で表示させることを特徴とする請求項1から3の何れか1項に記載の表示制御装置。4. The display control unit according to claim 1, wherein the display control unit displays the operation buttons in descending order from operation buttons corresponding to an operation having a higher probability of being received by the user than other operations. The display control device according to item. 前記操作履歴には、それぞれの操作毎に当該操作が行われた際の日時を示す情報がさらに含まれ、The operation history further includes information indicating the date and time when the operation was performed for each operation,
前記表示制御装置は、古い操作履歴を順次新しい操作履歴によって上書きするように制御することを特徴とする請求項1から3の何れか1項に記載の表示制御装置。The display control apparatus according to any one of claims 1 to 3, wherein the display control apparatus performs control so that an old operation history is sequentially overwritten by a new operation history.
ユーザの操作を受け付ける操作受付手段として機能する表示手段、を備える表示制御装置が行う表示制御方法において、In a display control method performed by a display control device including a display unit that functions as an operation reception unit that receives a user operation,
移動体の移動状態における操作履歴に基づき、過去の前記移動状態においてユーザにより各操作が行われた確率を算出し、当該確率が所定確率以上である操作ボタンをユーザにより受け付けられる可能性が高い操作と予測する予測工程と、Based on the operation history in the moving state of the moving body, the probability that each operation has been performed by the user in the past moving state is calculated, and the operation that is highly likely to be accepted by the user for the operation button having the probability equal to or higher than the predetermined probability A prediction process for predicting,
ユーザにより受け付けられる可能性が高い操作に対応する操作ボタンを目立たせて前記表示手段に表示させる表示制御工程と、A display control step of conspicuously displaying an operation button corresponding to an operation likely to be received by the user on the display means;
を含むことを特徴とする表示制御方法。A display control method comprising:
請求項6に記載の表示制御方法をコンピュータに実行させることを特徴とする表示制御プログラム。A display control program for causing a computer to execute the display control method according to claim 6. 請求項7に記載の表示制御プログラムを記憶したことを特徴とするコンピュータが読み取り可能な記録媒体。A computer-readable recording medium storing the display control program according to claim 7.
JP2015509819A 2013-04-04 2013-04-04 Display control device, display control method, display control program, and computer-readable recording medium Active JP6023874B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/060388 WO2014162570A1 (en) 2013-04-04 2013-04-04 Display control device, display control method, display control program, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP6023874B2 true JP6023874B2 (en) 2016-11-09
JPWO2014162570A1 JPWO2014162570A1 (en) 2017-02-16

Family

ID=51657899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015509819A Active JP6023874B2 (en) 2013-04-04 2013-04-04 Display control device, display control method, display control program, and computer-readable recording medium

Country Status (2)

Country Link
JP (1) JP6023874B2 (en)
WO (1) WO2014162570A1 (en)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10097973B2 (en) 2015-05-27 2018-10-09 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
CN105930061A (en) * 2016-05-20 2016-09-07 深圳天珑无线科技有限公司 Shielding method for function keys and terminal
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. Low-latency intelligent automated assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (en) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. User activity shortcut suggestions
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021157126A1 (en) * 2020-02-05 2021-08-12 国立大学法人九州工業大学 Data input assistance program, data input assistance device, and data input assistance method
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005315682A (en) * 2004-04-28 2005-11-10 Nissan Motor Co Ltd Information providing system, information center, vehicle-mounted terminal, and information providing method
JP2007062559A (en) * 2005-08-31 2007-03-15 Denso Corp On-vehicle switch system
JP2007102442A (en) * 2005-10-04 2007-04-19 Xanavi Informatics Corp Touch panel display device and navigation system with the same
JP2010066197A (en) * 2008-09-12 2010-03-25 Fujitsu Ten Ltd Information processing device, image processing device, and image processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005315682A (en) * 2004-04-28 2005-11-10 Nissan Motor Co Ltd Information providing system, information center, vehicle-mounted terminal, and information providing method
JP2007062559A (en) * 2005-08-31 2007-03-15 Denso Corp On-vehicle switch system
JP2007102442A (en) * 2005-10-04 2007-04-19 Xanavi Informatics Corp Touch panel display device and navigation system with the same
JP2010066197A (en) * 2008-09-12 2010-03-25 Fujitsu Ten Ltd Information processing device, image processing device, and image processing program

Also Published As

Publication number Publication date
WO2014162570A1 (en) 2014-10-09
JPWO2014162570A1 (en) 2017-02-16

Similar Documents

Publication Publication Date Title
JP6023874B2 (en) Display control device, display control method, display control program, and computer-readable recording medium
JP4609242B2 (en) Operation control device
JP4821527B2 (en) Information equipment
JP5605186B2 (en) Control device, control method of control device, and computer program
JP5742314B2 (en) Image display system, image display apparatus, image display method, and computer program
JP2009134105A (en) Display device, display control method, display control program and recording medium
CN106705988A (en) Traffic display method, device and computer equipment
JP2011192231A (en) In-vehicle input device, and input program therefor
CN101813487B (en) Navigation device and display method thereof
JP4682209B2 (en) DATA UPDATE DEVICE, DATA UPDATE METHOD, DATA UPDATE PROGRAM, AND RECORDING MEDIUM
JP5229640B2 (en) Display device and program
JP2009058542A (en) Information-announcing device, information announcing method, information announcing program and recording medium
JP5389624B2 (en) Information processing apparatus, input control method, input control program, and recording medium
JP5378037B2 (en) Navigation device and destination setting method thereof
JP5059572B2 (en) Information notification device, information notification method, information notification program, and recording medium
JP5412562B2 (en) Information notification device, information notification method, information notification program, and recording medium
JP4603621B2 (en) Route guidance device, route guidance method, route guidance program, and recording medium
WO2007105500A1 (en) Navigation device, navigation method, navigation program, and computer readable recording medium
JP2009115718A (en) Navigation system, navigation method, navigation program, and record medium
JP6333446B2 (en) Map display device, map display method, and map display program
JP2009156697A (en) Route searching device, route searching method, route searching program, and recording medium
JPWO2007074741A1 (en) Navigation device, process control method, process control program, and computer-readable recording medium
JP5705946B2 (en) Map display device, map display method, and map display program
JP5794158B2 (en) Image display apparatus, image display method, and computer program
JP2021192063A (en) Map display device, map display method, and map display program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161007

R150 Certificate of patent or registration of utility model

Ref document number: 6023874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150