JP2008191086A - Navigation system - Google Patents

Navigation system Download PDF

Info

Publication number
JP2008191086A
JP2008191086A JP2007027980A JP2007027980A JP2008191086A JP 2008191086 A JP2008191086 A JP 2008191086A JP 2007027980 A JP2007027980 A JP 2007027980A JP 2007027980 A JP2007027980 A JP 2007027980A JP 2008191086 A JP2008191086 A JP 2008191086A
Authority
JP
Japan
Prior art keywords
touch panel
vibration
display device
operation key
contact position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007027980A
Other languages
Japanese (ja)
Inventor
Shinji Takenaka
真治 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2007027980A priority Critical patent/JP2008191086A/en
Publication of JP2008191086A publication Critical patent/JP2008191086A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation system capable of recognizing the position of an operation key during travel of a vehicle by a user, and capable of preventing a map from being displayed in an unexpected manner by the user. <P>SOLUTION: A CPU prohibits a scroll for the displayed map (S08), when determining that the vehicle is under the travel (S01) and when detecting the tracing of a touch panel arranged on a screen of a display (S04), and the touch panel is vibrated (S11) when a contact position of the touch panel is located on the operation key during the tracing. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、表示装置とタッチパネルとを備えるナビゲーション装置に関する。   The present invention relates to a navigation device including a display device and a touch panel.

従来のタッチパネルを備えるナビゲーション装置としては、表示装置の画面に地図を表示し、タッチパネルにより接触が検出され、検出された地図上の位置が画面の中心となるように地図をスクロールさせるものがある(例えば、特許文献1参照)。   As a conventional navigation device having a touch panel, there is a navigation device that displays a map on a screen of a display device, detects a contact by the touch panel, and scrolls the map so that the detected position on the map becomes the center of the screen ( For example, see Patent Document 1).

特開平7−210137号公報(第4図)Japanese Patent Laid-Open No. 7-210137 (FIG. 4)

従来のナビゲーション装置は、車の走行中でも地図をスクロールさせるものであった。このため、従来のナビゲーション装置には、車の走行中に運転者が画面に表示された操作キーを探すとき、運転者は画面を目視できないため操作キーの位置が分からず、地図に接触してしまうことがあり、地図の表示が利用者にとって予期しないものになってしまうという問題があった。   A conventional navigation device scrolls a map even while a car is running. For this reason, in a conventional navigation device, when the driver searches for an operation key displayed on the screen while the vehicle is running, the driver cannot see the screen, so the position of the operation key is not known, and the driver touches the map. There is a problem that the display of the map becomes unexpected for the user.

本発明は、従来の問題を解決するためになされたもので、車の走行中に利用者に操作キーの位置を認識させることができ、地図の表示が利用者にとって予期しないものにならないナビゲーション装置を提供することを目的とする。   The present invention has been made in order to solve the conventional problems, and allows the user to recognize the position of the operation key while the vehicle is traveling, so that the display of the map is not unexpected for the user. The purpose is to provide.

本発明のナビゲーション装置は、地図および操作キーを表示する表示装置と、前記表示装置上に備えられ接触位置を検出するタッチパネルと、前記タッチパネルに振動を与える振動発生手段と、前記タッチパネルがなぞられたとき、前記表示装置に表示されている地図のスクロールを禁止するスクロール禁止手段と、前記タッチパネルがなぞられており、かつ前記タッチパネルにより検出された接触位置が前記表示装置に表示されている操作キーの上にあれば、前記タッチパネルに振動を与えるように前記振動発生手段を制御する振動制御手段とを備える。   The navigation device of the present invention is traced to a display device that displays a map and operation keys, a touch panel that is provided on the display device to detect a contact position, vibration generating means that applies vibration to the touch panel, and the touch panel. A scroll prohibiting means for prohibiting the scrolling of the map displayed on the display device, the touch panel being traced, and a touch position detected by the touch panel of an operation key displayed on the display device. If it exists above, it has a vibration control means for controlling the vibration generating means to give vibration to the touch panel.

以上のように本発明は、車の走行中に利用者がキー操作を行うとき、振動により利用者に操作キーの位置を認識させることができ、なぞりにより地図のスクロールを禁止することで地図の表示が利用者にとって予期しないものにならない。   As described above, according to the present invention, when a user performs a key operation while the vehicle is running, the user can recognize the position of the operation key by vibration, and by prohibiting the scrolling of the map by tracing, The display does not become unexpected for the user.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係るナビゲーション装置のブロック図である。ナビゲーション装置100は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、プログラムRAM(Random Access Memory)103、記憶装置104、表示装置109、描画コントローラ110、描画RAM111、ボタン群112、タッチパネル113、振動発生装置114、スピーカ116およびDAコンバータ117によって構成されている。また、ナビゲーション装置100はGPS機器105、VICS(登録商標)機器106、速度センサ107およびパーキングブレーキ108と接続されている。
(First embodiment)
FIG. 1 is a block diagram of a navigation apparatus according to the first embodiment of the present invention. The navigation device 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a program RAM (Random Access Memory) 103, a storage device 104, a display device 109, a drawing controller 110, a drawing RAM 111, a button group 112, a touch panel. 113, a vibration generator 114, a speaker 116, and a DA converter 117. The navigation device 100 is connected to a GPS device 105, a VICS (registered trademark) device 106, a speed sensor 107, and a parking brake 108.

CPU101は、ROM102に記憶されたプログラムをプログラムRAM103に読み込み、実行することによって、ナビゲーション装置100の動作を実行する等、各部を制御する。また、記憶装置104は、例えば、ハードディスクやDVD(Digital Versatile Disc)に情報を記憶する装置であって、地図情報などを記憶している。   The CPU 101 controls each unit such as executing the operation of the navigation device 100 by reading the program stored in the ROM 102 into the program RAM 103 and executing the program. The storage device 104 is a device that stores information on, for example, a hard disk or a DVD (Digital Versatile Disc), and stores map information and the like.

GPS機器105は、GPS(Global Positioning System)を用いて緯度および経度などの位置情報を取得し、VICS機器106は、VICS(Vehicle Information and Communication System)を用いて交通情報を取得する。   The GPS device 105 acquires position information such as latitude and longitude using GPS (Global Positioning System), and the VICS device 106 acquires traffic information using VICS (Vehicle Information and Communication System).

速度センサ107は、車の走行速度を検知し、検知した走行速度をCPU101に通知する。パーキングブレーキ108は、機械的に車の駆動輪を固定し、駆動輪を固定しているか否かをCPU101に通知する。   The speed sensor 107 detects the traveling speed of the car and notifies the CPU 101 of the detected traveling speed. The parking brake 108 mechanically fixes the driving wheel of the vehicle and notifies the CPU 101 whether or not the driving wheel is fixed.

表示装置109は、液晶ディスプレイ等で構成され、画面を備える。描画RAM111は表示装置109の画面に表示される描画データを蓄積し、描画コントローラ110は描画RAM111に蓄積された描画データを読み出し、画面に表示させる。   The display device 109 is composed of a liquid crystal display or the like and includes a screen. The drawing RAM 111 stores drawing data displayed on the screen of the display device 109, and the drawing controller 110 reads out the drawing data stored in the drawing RAM 111 and displays it on the screen.

ボタン群112は利用者により操作されるものであり、メニューの切り替えや音量の調整などの機能が割当てられる。タッチパネル113は、表示装置109に備えられた画面の表面に配置され、タッチ操作がされたか否かの検出、および利用者がタッチ操作したときの接触位置の検出を行う。ここで「タッチ操作」とは、利用者が指等でタッチパネル113の任意の位置に接触する動作をいう。また、「接触位置」とは、利用者が指などで接触するタッチパネル113上の位置をいう。また、振動発生装置114は、CPU101により制御され、タッチパネル113の全体を振動させる。   The button group 112 is operated by the user and is assigned functions such as menu switching and volume adjustment. The touch panel 113 is arranged on the surface of the screen provided in the display device 109, and detects whether or not a touch operation has been performed, and detects a contact position when the user performs a touch operation. Here, the “touch operation” refers to an operation in which the user touches an arbitrary position on the touch panel 113 with a finger or the like. The “contact position” refers to a position on the touch panel 113 where the user contacts with a finger or the like. The vibration generator 114 is controlled by the CPU 101 and vibrates the entire touch panel 113.

DAコンバータ117は、CPU101により処理された音響信号をデジタルからアナログの信号に変換してスピーカ116に出力する。スピーカ116は入力された信号に従って音を出力する。   The DA converter 117 converts the acoustic signal processed by the CPU 101 from a digital signal to an analog signal and outputs the signal to the speaker 116. The speaker 116 outputs sound according to the input signal.

次に、図2を用いて表示装置109について説明する。   Next, the display device 109 will be described with reference to FIG.

表示装置109は画面22を備える。また、ボタン群112は表示装置109の画面22以外の部分に設置される。図2に示すように、画面22には地図および所定の機能を実行させるための操作キー20a〜20dが表示される。   The display device 109 includes a screen 22. Further, the button group 112 is installed in a portion other than the screen 22 of the display device 109. As shown in FIG. 2, the screen 22 displays a map and operation keys 20a to 20d for executing predetermined functions.

利用者が操作キー20a〜20dをタッチすると、タッチパネル113は接触位置をCPU101に通知する。CPU101は、接触位置が操作キー20a〜20dの何れの上にあるかを特定し、特定した操作キーに対応した機能を実行する。   When the user touches the operation keys 20a to 20d, the touch panel 113 notifies the CPU 101 of the contact position. The CPU 101 specifies which of the operation keys 20a to 20d the contact position is on, and executes a function corresponding to the specified operation key.

操作キー20a〜20dへ割当てられる機能は、案内を停止あるいは再開させたり、迂回経路を案内させる機能など、車の走行中に運転者が操作してもよい機能が好ましい。   The function assigned to the operation keys 20a to 20d is preferably a function that may be operated by the driver while the vehicle is traveling, such as a function of stopping or restarting guidance or guiding a detour route.

また、利用者が、操作キー20a〜20d上ではない地図上の位置(たとえば、地図上の位置21)にタッチすれば、CPU101は接触位置のある地図上の位置が画面22の中心となるように地図をスクロールさせる。   If the user touches a position on the map that is not on the operation keys 20 a to 20 d (for example, position 21 on the map), the CPU 101 causes the position on the map where the contact position is to be the center of the screen 22. To scroll the map.

以上のように構成されたナビゲーション装置100の詳細な動作について図3〜図7を用いて説明する。   The detailed operation of the navigation device 100 configured as described above will be described with reference to FIGS.

図3は、本発明の実施の形態に係るナビゲーション装置100の動作の一例を表したフローチャートである。まず、CPU101は車が走行中か否かを判定する(S01)。CPU101は、速度センサ107が検知した車の走行速度が0であるとき車が停止中であると判定し、車の走行速度が0でないとき車が走行中であると判定する。   FIG. 3 is a flowchart showing an example of the operation of navigation device 100 according to the embodiment of the present invention. First, the CPU 101 determines whether or not the car is traveling (S01). The CPU 101 determines that the vehicle is stopped when the vehicle traveling speed detected by the speed sensor 107 is zero, and determines that the vehicle is traveling when the vehicle traveling speed is not zero.

CPU101は、ステップS01においてNOと判断した場合、通常の動作を行う(S02)。ここで、「通常の動作」とは、接触位置が操作キー20a〜20d上にある場合にはそれぞれの操作キーに対応した機能を実行する動作を行い、接触位置が地図上にある場合には、接触位置が画面の中心となるように地図をスクロールする動作などを行うことをいう。   If the CPU 101 determines NO in step S01, it performs a normal operation (S02). Here, “normal operation” means that when the contact position is on the operation keys 20a to 20d, the operation corresponding to each operation key is performed, and when the contact position is on the map. In other words, the operation of scrolling the map so that the contact position becomes the center of the screen.

ステップS01においてYESと判断した場合、CPU101は、タッチ操作がされたか否かを判定する(S03)。ステップS03においてNOと判断した場合、CPU101は処理を終了する。   If YES is determined in step S01, the CPU 101 determines whether or not a touch operation has been performed (S03). When determining NO in step S03, the CPU 101 ends the process.

ステップS03においてYESと判断した場合、CPU101は、なぞりか否かを判定する(S04)。ここで「なぞり」とは、利用者の指等がタッチパネル113に最初に接触した接触位置を開始点とし、利用者の指等が開始点から接触したまま接触位置を移動する動作をいう。   If it is determined as YES in step S03, the CPU 101 determines whether or not the tracing is performed (S04). Here, “tracing” refers to an operation in which the contact position where the user's finger or the like first contacts the touch panel 113 is used as a start point, and the contact position is moved while the user's finger or the like is in contact with the start point.

図4はなぞりを説明する図である。なぞりは、軌跡23aのように直線であっても、軌跡23bのように曲線であってもよい。   FIG. 4 is a diagram for explaining tracing. The trace may be a straight line like the locus 23a or a curved line like the locus 23b.

ステップS04においてなぞりか否かを判定する動作について、図5のフローチャートを参照して説明する。   The operation for determining whether or not to trace in step S04 will be described with reference to the flowchart of FIG.

CPU101は、タッチ操作開始時の接触位置の座標を取得して記憶し、かつタッチを検知した時点から計時を開始する(S041)。ステップS041の次に、CPU101は、計時中の時間が所定時間T1を経過したか否かを判定する(S042)。ステップS042においてNOと判断した場合、CPU101は処理をステップS042に戻す。ステップS042においてYESと判断した場合、CPU101は、所定時間T1を経過したときの接触位置の座標が記憶されたタッチ操作開始時の接触位置の座標と比較して変化したか否かを判定する(S043)。   CPU101 acquires and memorize | stores the coordinate of the contact position at the time of a touch operation start, and starts time measurement from the time of detecting a touch (S041). Following step S041, the CPU 101 determines whether or not the time being measured has exceeded a predetermined time T1 (S042). When determining NO in step S042, the CPU 101 returns the process to step S042. If YES is determined in step S042, the CPU 101 determines whether or not the coordinates of the contact position when the predetermined time T1 has elapsed are compared with the stored coordinates of the contact position at the start of the touch operation ( S043).

ステップS043においてNOと判断した場合、CPU101は、接触位置が操作キー20a〜20d上にあるか否かを判定する(S05)。ステップS05においてYESと判断した場合、CPU101は、接触位置のある操作キー対応した機能を実行する(S06)。また、ステップS05においてNOと判断した場合、CPU101は、接触位置のある地図上の位置が画面の中心となるように地図をスクロールさせる(S07)。   When determining NO in step S043, the CPU 101 determines whether or not the contact position is on the operation keys 20a to 20d (S05). If YES is determined in step S05, the CPU 101 executes a function corresponding to the operation key having the contact position (S06). If NO is determined in step S05, the CPU 101 scrolls the map so that the position on the map where the contact position is located becomes the center of the screen (S07).

なお、CPU101は、ステップS042において所定時間T1を計時している間に、タッチ操作が終了された場合、処理を終了させることができる。   In addition, CPU101 can complete | finish a process, when touch operation is complete | finished while measuring predetermined time T1 in step S042.

なお、CPU101は、所定時間T1を任意に設定できる。所定時間T1は1000ms(ミリ秒)程度が好ましい。また、ステップS043において、タッチ操作開始時の接触位置の座標と、所定時間T1の経過後の接触位置の座標との距離が一定の許容量以内、例えば10mm程度であれば、CPU101は、接触位置の座標が変化していないと判定するようにしてもよい。このように判定する理由は、利用者が接触位置を動かしていないと認識していても10mm程度の接触位置の移動が生じる場合があり、CPU101がこの移動をなぞりと判定しないようにするためである。   Note that the CPU 101 can arbitrarily set the predetermined time T1. The predetermined time T1 is preferably about 1000 ms (milliseconds). In step S043, if the distance between the coordinates of the contact position at the start of the touch operation and the coordinates of the contact position after the lapse of the predetermined time T1 is within a certain allowable amount, for example, about 10 mm, the CPU 101 It may be determined that the coordinates of are not changed. The reason for determining in this way is that the movement of the contact position of about 10 mm may occur even if the user recognizes that the contact position is not moved, and the CPU 101 does not determine this movement as a trace. is there.

ステップS043においてYESと判断した場合、CPU101は、なぞりであると判定し地図のスクロールを禁止するように制御する(S08)。   If it is determined as YES in step S043, the CPU 101 determines that it is tracing and performs control to prohibit the scrolling of the map (S08).

ステップS08の次に、CPU101は、タッチパネル113を振動させるように振動発生装置114を制御する(S09)。このステップS09について図6(A)、(B)を参照して詳細に説明する。   Following step S08, the CPU 101 controls the vibration generator 114 to vibrate the touch panel 113 (S09). Step S09 will be described in detail with reference to FIGS. 6 (A) and 6 (B).

ステップS09において、CPU101は、まず、振動パターンM1の振動を発生させる(S091)。振動パターンM1は、図6(B)に示すように800ms周期で20msの振動発生と780msの振動停止とを繰り返すパターンである。振動パターンM1の振動により、利用者は表示されている地図のスクロールが禁止されていることを認識できる。   In step S09, the CPU 101 first generates vibration of the vibration pattern M1 (S091). As shown in FIG. 6B, the vibration pattern M1 is a pattern in which vibration generation of 20 ms and vibration stop of 780 ms are repeated in a cycle of 800 ms. The user can recognize that scrolling of the displayed map is prohibited by the vibration of the vibration pattern M1.

ステップS091の次に、CPU101は、ステップS091で振動を発生させた時点における接触位置の座標を取得して記憶し、かつ振動を発生させた時点から計時を開始する(S092)。   Following step S091, the CPU 101 acquires and stores the coordinates of the contact position at the time when the vibration is generated in step S091, and starts timing from the time when the vibration is generated (S092).

ステップS092の次に、CPU101は、計時した時間が所定時間T2を経過したときにおける接触位置の座標が、記憶した接触位置の座標と比較して変化したか否かを判定する(S093)。CPU101は、ステップS093においてYESと判断した場合、処理をステップS091へ戻し、ステップS093においてNOと判断した場合、処理をステップS10へ進める。ステップS093により、CPU101はなぞりが継続しているか否かを判定することができる。   Following step S092, the CPU 101 determines whether or not the coordinates of the contact position when the measured time has passed the predetermined time T2 have changed compared to the stored coordinates of the contact position (S093). If CPU 101 determines YES in step S093, the process returns to step S091, and if NO is determined in step S093, the process proceeds to step S10. By step S093, the CPU 101 can determine whether or not the tracing is continued.

なお、CPU101は、ステップS091において振動パターンM1に替えて音で利用者に通知することもできる。しかし、利用者が音楽を聴いている場合には振動により利用者に通知する方が音楽の妨げにならないため好ましい。   Note that the CPU 101 can also notify the user with sound instead of the vibration pattern M1 in step S091. However, when the user is listening to music, it is preferable to notify the user by vibration because it does not interfere with the music.

なお、CPU101は、振動パターンの周期、振動発生の時間および振動停止の時間を任意に設定できる。また、CPU101は所定時間T2を任意に設定できる。所定時間T2は100ms程度が好ましい。   The CPU 101 can arbitrarily set the period of the vibration pattern, the vibration generation time, and the vibration stop time. Further, the CPU 101 can arbitrarily set the predetermined time T2. The predetermined time T2 is preferably about 100 ms.

また、ステップS093において、接触位置の座標が変化した距離が一定の許容量以内、例えば10mm程度以内であれば、CPU101は、接触位置の座標が変化していないと判定するようにしてもよい。   In step S093, if the distance at which the coordinates of the contact position has changed is within a certain allowable amount, for example, within about 10 mm, the CPU 101 may determine that the coordinates of the contact position have not changed.

なお、ステップS093において所定時間T2を計時している間に利用者がタッチ操作を終了した場合、CPU101は処理を終了させることができる。   If the user ends the touch operation while measuring the predetermined time T2 in step S093, the CPU 101 can end the process.

ステップS093においてNOと判断した場合、なぞりが停止したと判定し、CPU101は接触位置の座標が操作キー20a〜20d上にあるか否かを判定する(S10)。ステップS10においてNOと判断した場合、CPU101は処理をステップS09に戻す。   If NO is determined in step S093, it is determined that the tracing is stopped, and the CPU 101 determines whether the coordinates of the contact position are on the operation keys 20a to 20d (S10). When determining NO in step S10, the CPU 101 returns the process to step S09.

ステップS10においてYESと判断した場合、CPU101は、操作キー20a〜20dごとに異なる振動パターンでタッチパネル113を振動させるように、振動発生装置114を制御する(S11)。CPU101は、ステップS09における振動をステップS11における振動とは異なるパターンとなるように制御する。   If YES is determined in step S10, the CPU 101 controls the vibration generator 114 so as to vibrate the touch panel 113 with a different vibration pattern for each of the operation keys 20a to 20d (S11). The CPU 101 controls the vibration in step S09 to have a pattern different from the vibration in step S11.

図7は操作キーに対応した振動パターンを説明する図である。例えば図7に示すように、それぞれの振動パターンは一定時間1500msを1周期としている。CPU101は、100msの振動発生と150msの振動停止とを振動の1単位として、この振動の1単位を所定回数発生させるように振動発生装置114を制御する。   FIG. 7 is a diagram for explaining vibration patterns corresponding to the operation keys. For example, as shown in FIG. 7, each vibration pattern has a fixed time of 1500 ms as one cycle. The CPU 101 controls the vibration generator 114 so that one unit of vibration is generated a predetermined number of times, with 100 ms of vibration generation and 150 ms of vibration stop being one unit of vibration.

振動パターンF1は1周期の間に振動の1単位を1回発生、振動パターンF2は1周期の間に振動の1単位を2回発生、振動パターンF3は1周期の間に振動の1単位を3回発生、振動パターンF4は1周期の間に振動の1単位を4回発生させるパターンである。一定時間1500ms経過後は、1500ms周期で同じ振動パターンを繰り返す。例えば、振動パターンF1〜F4は操作キー20a〜20dにそれぞれ割当てられる。これにより、利用者は接触位置が操作キー20a〜20dのいずれの上にあるかを区別して認識することができる。   The vibration pattern F1 generates one unit of vibration once during one period, the vibration pattern F2 generates one unit of vibration twice during one period, and the vibration pattern F3 generates one unit of vibration during one period. The 3 times occurrence, vibration pattern F4 is a pattern in which 1 unit of vibration is generated 4 times during one period. After a fixed time of 1500 ms, the same vibration pattern is repeated at a cycle of 1500 ms. For example, the vibration patterns F1 to F4 are assigned to the operation keys 20a to 20d, respectively. Accordingly, the user can distinguish and recognize which of the operation keys 20a to 20d the contact position is on.

なお、振動パターンF1〜F4については、図7で示した振動パターンとは異なるパターンであってもよい。例えば、1周期の間に振動の1単位を3回発生させる場合、CPU101は振動パターンF3のように、振動の1単位を連続して発生させるように制御しても、振動パターンF5のように一定時間を空けて振動の1単位を発生させるように制御してもよい。   Note that the vibration patterns F1 to F4 may be different from the vibration pattern shown in FIG. For example, when one unit of vibration is generated three times during one cycle, the CPU 101 is controlled to continuously generate one unit of vibration as in the vibration pattern F3, but as in the vibration pattern F5. It may be controlled to generate one unit of vibration after a certain period of time.

なお、振動パターンの操作キーへの割当ては、利用者が設定できるようにしてもよい。これにより、利用者は自ら認識しやすい振動パターンを操作キーに割当てることができる。   The assignment of the vibration pattern to the operation keys may be set by the user. As a result, the user can assign vibration patterns that are easily recognized by the user to the operation keys.

なお、CPU101は、ステップS11の次に、接触位置が操作キー20a〜20d上でなくなった場合でかつなぞりが再開したときは処理をステップS09に戻すことができる。   Note that the CPU 101 can return the process to step S09 when the contact position is no longer on the operation keys 20a to 20d after step S11 and when the tracing is resumed.

ステップS11の次に、CPU101は、リタッチ操作が行われたか否かを判断する(S12)。ここでリタッチ操作とは、例えば、利用者が指などでタッチ操作したとき、一度タッチパネルから指などを離しその後再度タッチパネルに触る操作である。リタッチ操作がされたか否かは、CPU101で判断される。CPU101は、操作キー20a〜20d上で接触されたことを検出した後、接触されていないことを検出し、その後、操作キー20a〜20d上で再度接触されたことを検出したときにリタッチ操作がされたと判断する。操作キー20a〜20d上のいずれかの位置でリタッチ操作が行われたとき、CPU101は、当該操作キーに対応した機能を実行するとともに振動を停止させるように制御する(S13)。これにより、利用者は、なぞりと異なる操作で意図するときに機能を実行させることができる。   Following step S11, the CPU 101 determines whether a retouch operation has been performed (S12). Here, the retouching operation is, for example, an operation in which, when the user performs a touch operation with a finger or the like, the finger or the like is once released from the touch panel and then touched again. The CPU 101 determines whether or not a retouch operation has been performed. After detecting that the CPU 101 has been touched on the operation keys 20a to 20d, the CPU 101 detects that it has not been touched. After that, the CPU 101 detects that the touch has been made again on the operation keys 20a to 20d. Judge that it was done. When a retouch operation is performed at any position on the operation keys 20a to 20d, the CPU 101 performs a function corresponding to the operation key and controls to stop vibration (S13). Thus, the user can execute the function when intended by an operation different from the tracing.

なお、CPU101は、ステップS10においてNOと判断した場合、処理をステップS09に戻すと記載したが、CPU101は、ステップS09に戻さず振動を停止するように制御し、その後なぞりが再開したら処理をステップS09に戻し、なぞりが再開しなければ処理を終了させることができる。   The CPU 101 described that the process returns to step S09 if NO is determined in step S10. However, the CPU 101 performs control so as to stop the vibration without returning to step S09, and when the tracing is resumed, the process is stepped. Returning to S09, if the tracing is not resumed, the process can be terminated.

なお、CPU101は、ステップS12においてタッチパネルが接触されていないことを検出した時間が所定の時間(例えば500ms)を超えた場合、リタッチ操作ではないと判断し処理を終了させることができる。   In addition, when the time which detected that the touch panel is not touched in step S12 exceeds predetermined time (for example, 500 ms), CPU101 can judge that it is not a retouch operation and can complete | finish a process.

なお、CPU101は処理を終了させたあと、地図のスクロールの禁止を解除してスクロールできるようにし、処理をステップS01に戻すことができる。   Note that after the process is finished, the CPU 101 can cancel the prohibition of scrolling the map so that it can be scrolled, and the process can be returned to step S01.

なお、振動発生装置114は、タッチパネル113の全体を振動させる際、振動の強弱を調整できるようにしてもよい。CPU101は、振動の周期、振動発生の時間および振動停止の時間だけでなく、振動の強弱を制御し振動パターンを発生させることができる。   Note that the vibration generator 114 may be configured to adjust the strength of vibration when the entire touch panel 113 is vibrated. The CPU 101 can generate a vibration pattern by controlling not only the vibration period, vibration generation time, and vibration stop time, but also the vibration intensity.

なお、振動発生装置114は接触位置を振動させてもよく、接触位置およびその近傍を振動させてもよい。また、CPU101はROM102およびプログラムRAM103を備えた1つの集積回路であってもよい。   Note that the vibration generator 114 may vibrate the contact position, and may vibrate the contact position and its vicinity. The CPU 101 may be a single integrated circuit including the ROM 102 and the program RAM 103.

以上説明したように、ナビゲーション装置100は、車の走行中になぞりを検出したとき、地図のスクロールを禁止し、なぞり中で、かつ接触位置が操作キー上にあれば操作キーに対応する振動を発生させる。この機能により、ナビゲーション装置100は車の走行中に利用者がキー操作を行うとき、利用者に操作キーの位置を認識させることができ、地図の表示が利用者にとって予期しないものにならない。   As described above, the navigation device 100 prohibits the scrolling of the map when the tracing is detected while the vehicle is running, and if the tracing is in progress and the contact position is on the operation key, the navigation device 100 generates a vibration corresponding to the operation key. generate. With this function, the navigation device 100 can make the user recognize the position of the operation key when the user performs a key operation while the vehicle is traveling, and the display of the map is not unexpected for the user.

(第2の実施の形態)
本発明の第2の実施の形態を図8〜図11を用いて説明する。
(Second Embodiment)
A second embodiment of the present invention will be described with reference to FIGS.

第1の実施の形態では、CPU101はステップS09において振動パターンM1でタッチパネル113を振動させるように制御するとしたが、CPU101は振動パターンM1に替えて、振動パターンが接触位置に応じて変化するように制御してもよい。   In the first embodiment, the CPU 101 controls the touch panel 113 to vibrate with the vibration pattern M1 in step S09. However, the CPU 101 changes the vibration pattern according to the contact position instead of the vibration pattern M1. You may control.

接触位置に応じて変化する振動パターンについて図8(A)を用いて説明する。図8(A)は複数の操作キーが画面22の1つの辺の近傍に配置されているときの図である。   A vibration pattern that changes in accordance with the contact position will be described with reference to FIG. FIG. 8A is a diagram when a plurality of operation keys are arranged in the vicinity of one side of the screen 22.

タッチパネル113は、複数の小領域に区分される。例えば、図8(A)では、タッチパネル113は境界線の上下で領域Aと領域Bに区分される。操作キー20a〜20dは領域Aに含まれている。なお、図示した境界線は領域を説明するための線であり実際に画面には表示されない。   The touch panel 113 is divided into a plurality of small areas. For example, in FIG. 8A, the touch panel 113 is divided into a region A and a region B above and below the boundary line. The operation keys 20a to 20d are included in the area A. Note that the illustrated boundary line is a line for explaining a region and is not actually displayed on the screen.

次に、CPU101は、区分された領域のいずれに接触位置があるかを判断する。接触位置が領域Aの操作キー上でない位置にあるとき、CPU101は図8(B)に示す振動パターンM3でタッチパネル113が振動するように振動発生装置114を制御する。接触位置が領域Bにある場合、CPU101は図8(B)に示す振動パターンM2でタッチパネル113が振動するように振動発生装置114を制御する。   Next, the CPU 101 determines which of the divided areas has the contact position. When the contact position is not on the operation key in the area A, the CPU 101 controls the vibration generator 114 so that the touch panel 113 vibrates with the vibration pattern M3 shown in FIG. When the contact position is in the region B, the CPU 101 controls the vibration generator 114 so that the touch panel 113 vibrates with the vibration pattern M2 shown in FIG.

振動パターンM2における振動発生の周期は400msであり、振動パターンM3における振動発生の周期は200msである。いずれの振動パターンも振動が発生する時間は20msである。振動パターンM2とM3との違いは振動発生の周期であり、振動パターンM2の周期は振動パターンM3の周期よりも長い。   The period of vibration generation in the vibration pattern M2 is 400 ms, and the period of vibration generation in the vibration pattern M3 is 200 ms. In any vibration pattern, the vibration generation time is 20 ms. The difference between the vibration patterns M2 and M3 is the period of vibration generation, and the period of the vibration pattern M2 is longer than the period of the vibration pattern M3.

接触位置が、操作キーがない領域Bから操作キーがある領域Aへ移動すると、振動パターンが振動パターンM2から、振動パターンM2より周期の短い振動パターンM3へ変化する。これにより、利用者は接触位置が操作キーのある領域に移動したことを振動パターンの周期の変化で認識できる。   When the contact position moves from the region B without the operation key to the region A with the operation key, the vibration pattern changes from the vibration pattern M2 to the vibration pattern M3 having a shorter cycle than the vibration pattern M2. As a result, the user can recognize that the contact position has moved to the area where the operation key is located by changing the period of the vibration pattern.

次に、図9を用いて、複数の操作キーが画面22の2つの辺の近傍にそれぞれ配置される場合について説明する。   Next, a case where a plurality of operation keys are arranged in the vicinity of two sides of the screen 22 will be described with reference to FIG.

図9に示すように、操作キー20aおよび20bは画面22の左辺近傍に、操作キー20cおよび20dは画面22の右辺近傍に配置される。タッチパネル113は右辺および左辺のいずれとも平行な4本の境界線で5つの領域に区分され、この5つの領域は領域A、B、Cの3種類の領域にさらに分類される。操作20a〜20dを含む領域は領域Aに分類される。領域Aに隣接する領域は領域Bに分類され、領域Bに隣接し領域Aに対し反対側の領域は領域Cに分類される。   As shown in FIG. 9, the operation keys 20 a and 20 b are arranged near the left side of the screen 22, and the operation keys 20 c and 20 d are arranged near the right side of the screen 22. The touch panel 113 is divided into five regions by four boundary lines parallel to both the right side and the left side, and these five regions are further classified into three types of regions A, B, and C. A region including the operations 20a to 20d is classified as a region A. A region adjacent to the region A is classified as a region B, and a region adjacent to the region B and opposite to the region A is classified as a region C.

例えば、CPU101は、接触位置が領域Aで、かつ操作キー20a〜20d上でない場合は振動の周期を100msに、接触位置が領域Bにある場合は振動の周期を200msに、接触位置が領域Cにある場合は振動の周期を300msになるよう振動発生装置114を制御する。   For example, when the contact position is in the region A and not on the operation keys 20a to 20d, the CPU 101 sets the vibration cycle to 100 ms, and when the contact position is in the region B, the vibration cycle is set to 200 ms, and the contact position is the region C. If it is, the vibration generator 114 is controlled so that the vibration period is 300 ms.

以上のように、操作キー20a〜20dが画面22の対向する2つの辺の近傍にそれぞれ配置されている場合、タッチパネル113は、偶数本Nの対向する2つの辺のそれぞれに平行な境界線で、奇数個(N+1)の領域に区分され、区分された領域を[(N/2)+1]種類に分類され、CPU101は前記分類された種類ごとに振動を発生させるように振動発生装置114を制御する。振動の周期は操作キーを含む領域を最も短くし、操作キーを含む領域からの距離が遠ざかる順に長い周期となるように制御される。この構成により、利用者は振動パターンの周期が短くなると、操作キー20a〜20dを含む領域に近づいていると認識することができる。   As described above, when the operation keys 20a to 20d are arranged in the vicinity of two opposite sides of the screen 22, the touch panel 113 is a boundary line parallel to each of the even two opposite sides. And the odd-numbered (N + 1) areas, and the divided areas are classified into [(N / 2) +1] types, and the CPU 101 sets the vibration generator 114 so as to generate vibration for each of the classified types. Control. The period of vibration is controlled so that the area including the operation key is shortest and the period from the area including the operation key becomes longer in order of increasing distance. With this configuration, when the period of the vibration pattern is shortened, the user can recognize that the user is approaching the area including the operation keys 20a to 20d.

次に、図10を用いて操作キーが1つの場合について説明する。   Next, the case where there is one operation key will be described with reference to FIG.

タッチパネル113は、図10に示すように、1つの操作キー20aからの距離に応じて領域A〜領域Fに区分される。例えば、操作キー20aを含む領域を領域Aとする。CPU101は、接触位置が存在する領域に対応した振動パターンでタッチパネル113を振動させるように振動発生装置114を制御する。CPU101は、領域Aから領域Fにかけて次第に振動の周期が長くなっていくように振動パターンを割当てるように制御することが好ましい。これにより、利用者は振動パターンの周期のが短くなると、操作キー20aを含む領域に近づいていると認識することができる。   As shown in FIG. 10, the touch panel 113 is divided into areas A to F according to the distance from one operation key 20a. For example, a region including the operation key 20a is a region A. The CPU 101 controls the vibration generator 114 to vibrate the touch panel 113 with a vibration pattern corresponding to the region where the contact position exists. It is preferable that the CPU 101 performs control so that the vibration pattern is allocated so that the period of vibration gradually increases from the area A to the area F. Thereby, when the period of the vibration pattern is shortened, the user can recognize that the area including the operation key 20a is approaching.

また、操作キーが1つの場合、CPU101は操作キーから接触位置までの距離に応じて振動を変化させることもできる。この構成について図11を用いて説明する。位置25a〜25dはタッチパネル113上の接触位置であり、一点鎖線24a〜24cは操作キー20aを中心とする円である。なお、位置25a〜25d、一点鎖線24a〜24cのいずれも説明のために用いるものであり、画面22に表示されるものではない。位置25a〜25dの中で、位置25dが操作キー20aから最も距離が遠く、位置25aが操作キー20aから最も近くなっている。位置25bおよび25cは操作キー20aから等しい距離にある。   When there is one operation key, the CPU 101 can also change the vibration according to the distance from the operation key to the contact position. This configuration will be described with reference to FIG. Positions 25a to 25d are contact positions on the touch panel 113, and alternate long and short dash lines 24a to 24c are circles centered on the operation keys 20a. In addition, all of the positions 25a to 25d and the alternate long and short dash lines 24a to 24c are used for explanation, and are not displayed on the screen 22. Among the positions 25a to 25d, the position 25d is farthest from the operation key 20a, and the position 25a is closest to the operation key 20a. The positions 25b and 25c are at an equal distance from the operation key 20a.

接触位置が位置25aにある場合、CPU101は接触位置が位置25bにあるときより短い周期で振動するように制御する。また、接触位置が位置25bにある場合、CPU101は接触位置が位置25dにあるときより短い周期で振動するように制御する。振動の周期は操作キー20aから接触位置までの距離に比例して制御される。操作キー20aから等しい距離にある位置25bおよび25cにおける振動は等しい周期となる。   When the contact position is at the position 25a, the CPU 101 controls to vibrate with a shorter cycle than when the contact position is at the position 25b. When the contact position is at the position 25b, the CPU 101 controls to vibrate at a shorter cycle than when the contact position is at the position 25d. The period of vibration is controlled in proportion to the distance from the operation key 20a to the contact position. The vibrations at the positions 25b and 25c at the same distance from the operation key 20a have the same period.

以上のように、操作キーが1つのとき、操作キーから接触位置までの距離に比例した振動の周期とすることで、利用者は振動パターンの周期が短くなると接触位置が操作キーに近づいていると認識することができる。   As described above, when the number of operation keys is one, by setting the period of vibration proportional to the distance from the operation key to the contact position, the user can approach the operation key when the period of the vibration pattern becomes shorter. Can be recognized.

図10のように振動を領域ごとに変えると、接触位置が同じ領域内にあるときは同じ周期で振動するため、操作キーに近づいているか否かを認識できない。しかし、図11のように距離に比例して振動の周期を制御することで、利用者は接触位置が操作キーに近づいていることを詳細に認識できる。   When the vibration is changed for each region as shown in FIG. 10, when the contact position is in the same region, the vibration is performed with the same period, and thus it cannot be recognized whether or not the operation key is approached. However, by controlling the period of vibration in proportion to the distance as shown in FIG. 11, the user can recognize in detail that the contact position is approaching the operation key.

以上のように本発明は、車の走行中に利用者がキー操作を行うとき、振利用者に操作キーの位置を認識させることができ、地図の表示が利用者にとって予期しないものにならないという効果を有するナビゲーション装置等として有用である。   As described above, according to the present invention, when a user performs a key operation while the vehicle is running, the user can recognize the position of the operation key, and the display of the map is not unexpected for the user. It is useful as a navigation device having an effect.

本発明の第1の実施の形態におけるナビゲーション装置のブロック図The block diagram of the navigation apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における表示装置および画面を表す図The figure showing the display apparatus and screen in the 1st Embodiment of this invention 本発明の第1の実施の形態におけるナビゲーション装置の動作説明のためのフローチャートThe flowchart for demonstrating operation | movement of the navigation apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画面のなぞりを説明するための図The figure for demonstrating the screen tracing in the 1st Embodiment of this invention 本発明の第1の実施の形態におけるなぞりを判定する処理を説明するためのフローチャートThe flowchart for demonstrating the process which determines the trace in the 1st Embodiment of this invention 図3のステップS09の処理の詳細を示す図The figure which shows the detail of a process of step S09 of FIG. 本発明の第1の実施の形態における振動パターンについて説明するための図The figure for demonstrating the vibration pattern in the 1st Embodiment of this invention 本発明の第2の実施の形態における領域に対応した振動パターンの変化について説明するための図The figure for demonstrating the change of the vibration pattern corresponding to the area | region in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における領域に対応した振動パターンの変化について説明するための図The figure for demonstrating the change of the vibration pattern corresponding to the area | region in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における領域に対応した振動パターンの変化について説明するための図The figure for demonstrating the change of the vibration pattern corresponding to the area | region in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における距離に対応した振動パターンの変化について説明するための図The figure for demonstrating the change of the vibration pattern corresponding to the distance in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

20a〜20d 操作キー
22 画面
100 ナビゲーション装置
101 CPU
102 ROM
103 プログラムRAM
104 記憶装置
105 GPS機器
106 VICS機器
107 速度センサ
108 パーキングブレーキ
109 表示装置
110 描画コントローラ
111 描画RAM
112 ボタン群
113 タッチパネル
114 振動発生装置
116 スピーカ
117 DAコンバータ
20a to 20d Operation keys 22 Screen 100 Navigation device 101 CPU
102 ROM
103 Program RAM
104 Storage Device 105 GPS Device 106 VICS Device 107 Speed Sensor 108 Parking Brake 109 Display Device 110 Drawing Controller 111 Drawing RAM
112 Button Group 113 Touch Panel 114 Vibration Generator 116 Speaker 117 DA Converter

Claims (7)

地図および操作キーを表示する表示装置と、前記表示装置上に備えられ接触位置を検出するタッチパネルと、前記タッチパネルに振動を与える振動発生手段と、前記タッチパネルがなぞられたとき、前記表示装置に表示されている地図のスクロールを禁止するスクロール禁止手段と、前記タッチパネルがなぞられており、かつ前記タッチパネルにより検出された接触位置が前記表示装置に表示されている操作キーの上にあれば、前記タッチパネルに振動を与えるように前記振動発生手段を制御する振動制御手段とを備えることを特徴とするナビゲーション装置。 A display device for displaying a map and operation keys, a touch panel provided on the display device for detecting a contact position, vibration generating means for applying vibration to the touch panel, and display on the display device when the touch panel is traced If the touch panel is traced and the touch position detected by the touch panel is on the operation key displayed on the display device, the touch panel is prohibited. And a vibration control means for controlling the vibration generating means so as to apply vibration to the navigation apparatus. 前記振動制御手段は、前記表示装置に表示されている操作キーが複数あるとき、前記複数の操作キーごとに異なる振動を前記タッチパネルに与えるように前記振動発生手段を制御することを特徴とする請求項1に記載のナビゲーション装置。 The vibration control means controls the vibration generating means to give different vibrations to the touch panel for each of the plurality of operation keys when there are a plurality of operation keys displayed on the display device. Item 4. The navigation device according to Item 1. 前記振動制御手段は、前記タッチパネルがなぞられており、かつ前記タッチパネルにより検出された接触位置が前記表示装置に表示されている操作キーの上にないとき、前記タッチパネルにより検出された接触位置が前記表示装置に表示されている操作キーの上にあるときとは異なる振動を前記タッチパネルに与えるように前記振動発生手段を制御することを特徴とする請求項1に記載のナビゲーション装置。 When the touch panel is traced and the touch position detected by the touch panel is not on the operation key displayed on the display device, the vibration control means is configured such that the touch position detected by the touch panel is the touch position. 2. The navigation apparatus according to claim 1, wherein the vibration generating unit is controlled so as to give the touch panel vibration different from that on the operation key displayed on the display device. 前記表示装置に表示されている操作キーの上にない前記タッチパネル上の領域が複数の小領域に予め区分され、前記振動制御手段は、前記複数の小領域ごとに異なる振動を前記タッチパネルに与えるように前記振動発生手段を制御することを特徴とする請求項3に記載のナビゲーション装置。 An area on the touch panel that is not on the operation key displayed on the display device is preliminarily divided into a plurality of small areas, and the vibration control unit applies different vibrations to the touch panel for the plurality of small areas. 4. The navigation apparatus according to claim 3, wherein the vibration generating means is controlled. 前記振動制御手段は、前記タッチパネルがなぞられており、かつ前記タッチパネルにより検出された接触位置が前記表示装置に表示されている操作キーの上にないとき、前記タッチパネルにより検出された接触位置と前記表示装置に表示されている操作キーとの間の距離に応じた振動を前記タッチパネルに与えるように前記振動発生手段を制御することを特徴とする請求項1に記載のナビゲーション装置。 The vibration control means includes the contact position detected by the touch panel when the touch panel is traced and the contact position detected by the touch panel is not on the operation key displayed on the display device. 2. The navigation device according to claim 1, wherein the vibration generating unit is controlled so as to give the touch panel vibration according to a distance from an operation key displayed on the display device. 前記タッチパネルは接触されたか否かをさらに検出し、前記タッチパネルが、前記表示装置に表示されている操作キーの上で接触されたことを検出した後、接触されていないことを検出し、その後、前記表示装置に表示されている操作キーの上で再度接触されたことを検出したとき、前記表示装置に表示されている操作キーに対応する機能を実行することを特徴とする請求項1に記載のナビゲーション装置。 Further detecting whether or not the touch panel is touched, detecting that the touch panel is not touched after detecting that the touch panel is touched on the operation key displayed on the display device, The function corresponding to the operation key displayed on the display device is executed when it is detected that the touch is performed again on the operation key displayed on the display device. Navigation device. 地図および操作キーを表示する表示装置と、前記表示装置上に備えられ接触位置を検出するタッチパネルと、前記タッチパネルに振動を与える振動発生手段とを備えた車載用ナビゲーション装置に用いられる集積回路において、前記集積回路は、前記タッチパネルがなぞられたとき、前記表示装置に表示されている地図のスクロールを禁止するスクロール禁止手段と、前記タッチパネルがなぞられており、かつ前記タッチパネルにより検出された接触位置が前記表示装置に表示されている操作キーの上にあれば、前記タッチパネルに振動を与えるように前記振動発生手段を制御する振動制御手段とを備えることを特徴とする集積回路。 In an integrated circuit used in an in-vehicle navigation device including a display device that displays a map and operation keys, a touch panel that is provided on the display device and detects a contact position, and vibration generation means that applies vibration to the touch panel. When the touch panel is traced, the integrated circuit includes a scroll prohibition unit that prohibits scrolling of a map displayed on the display device, and the touch panel is traced, and a contact position detected by the touch panel is detected. An integrated circuit comprising: vibration control means for controlling the vibration generating means so as to apply vibration to the touch panel when the operation key is displayed on the display device.
JP2007027980A 2007-02-07 2007-02-07 Navigation system Pending JP2008191086A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007027980A JP2008191086A (en) 2007-02-07 2007-02-07 Navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007027980A JP2008191086A (en) 2007-02-07 2007-02-07 Navigation system

Publications (1)

Publication Number Publication Date
JP2008191086A true JP2008191086A (en) 2008-08-21

Family

ID=39751311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007027980A Pending JP2008191086A (en) 2007-02-07 2007-02-07 Navigation system

Country Status (1)

Country Link
JP (1) JP2008191086A (en)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145609A (en) * 2010-01-18 2011-07-28 Clarion Co Ltd Map display apparatus and map display method
JP2013196465A (en) * 2012-03-21 2013-09-30 Kddi Corp User interface device for applying tactile response in object selection, tactile response application method and program
JPWO2012137946A1 (en) * 2011-04-06 2014-07-28 京セラ株式会社 Electronic device, operation control method, and operation control program
WO2014171096A1 (en) * 2013-04-18 2014-10-23 株式会社デンソー Control device for vehicle devices and vehicle device
JP2014225245A (en) * 2013-04-25 2014-12-04 パナソニックIpマネジメント株式会社 Traffic information presentation system, traffic information presentation method and electronic device
EP2816459A1 (en) * 2012-02-16 2014-12-24 Sharp Kabushiki Kaisha Input control device, electronic instrument, input control method, program, and recording medium
JP2016146076A (en) * 2015-02-09 2016-08-12 株式会社東海理化電機製作所 Input device
JPWO2016038675A1 (en) * 2014-09-09 2017-04-27 三菱電機株式会社 Tactile sensation control system and tactile sensation control method
JP2018142345A (en) * 2012-12-29 2018-09-13 アップル インコーポレイテッドApple Inc. Device, method and graphical user interface for suspending generation of tactile output for multi-contact gesture
JPWO2018167813A1 (en) * 2017-03-13 2019-06-27 三菱電機株式会社 Touch pad operation detection device and touch pad operation detection method
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145609A (en) * 2010-01-18 2011-07-28 Clarion Co Ltd Map display apparatus and map display method
JPWO2012137946A1 (en) * 2011-04-06 2014-07-28 京セラ株式会社 Electronic device, operation control method, and operation control program
US9733708B2 (en) 2011-04-06 2017-08-15 Kyocera Corporation Electronic device, operation control method, and operation control program
EP2816459A4 (en) * 2012-02-16 2015-03-18 Sharp Kk Input control device, electronic instrument, input control method, program, and recording medium
EP2816459A1 (en) * 2012-02-16 2014-12-24 Sharp Kabushiki Kaisha Input control device, electronic instrument, input control method, program, and recording medium
JP2013196465A (en) * 2012-03-21 2013-09-30 Kddi Corp User interface device for applying tactile response in object selection, tactile response application method and program
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
JP2018142345A (en) * 2012-12-29 2018-09-13 アップル インコーポレイテッドApple Inc. Device, method and graphical user interface for suspending generation of tactile output for multi-contact gesture
CN105142983A (en) * 2013-04-18 2015-12-09 株式会社电装 Control device for vehicle devices and vehicle device
WO2014171096A1 (en) * 2013-04-18 2014-10-23 株式会社デンソー Control device for vehicle devices and vehicle device
JP2014225245A (en) * 2013-04-25 2014-12-04 パナソニックIpマネジメント株式会社 Traffic information presentation system, traffic information presentation method and electronic device
JPWO2016038675A1 (en) * 2014-09-09 2017-04-27 三菱電機株式会社 Tactile sensation control system and tactile sensation control method
JP2016146076A (en) * 2015-02-09 2016-08-12 株式会社東海理化電機製作所 Input device
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JPWO2018167813A1 (en) * 2017-03-13 2019-06-27 三菱電機株式会社 Touch pad operation detection device and touch pad operation detection method

Similar Documents

Publication Publication Date Title
JP2008191086A (en) Navigation system
EP2945052B1 (en) Voice recognition device, voice recognition program, and voice recognition method
JP2006284218A (en) Navigation device
JP7129248B2 (en) Information control device and display change method
JP2007155633A (en) Navigation system
JP2006220884A (en) Map display method and navigation system
JP2007102442A (en) Touch panel display device and navigation system with the same
JP6221265B2 (en) Touch panel operation device and operation event determination method in touch panel operation device
JPWO2017111075A1 (en) OBE, display area dividing method, program, and information control apparatus
JP2008039731A (en) Navigation system and its method of displaying on screen
JP4783075B2 (en) Navigation device
JP2007145106A (en) On-vehicle information terminal
JP2007199980A (en) Display controller, map display device and navigation device
WO2020009047A1 (en) Information control device and display modification method
JP2008033763A (en) On-vehicle electronic apparatus and navigation device
JP5074714B2 (en) Car navigation system
JP4921943B2 (en) Navigation device
JP2008209151A (en) Route guidance device
JP2008145170A (en) On-vehicle display apparatus
JP2007017331A (en) Navigation device
JP2008032629A (en) Navigation system
JP2007132678A (en) Navigation device
JP4897342B2 (en) In-vehicle map display device
JP2011238294A (en) Display device
JP7252045B2 (en) Information control device, information control method and program