JP5649670B2 - input method - Google Patents

input method Download PDF

Info

Publication number
JP5649670B2
JP5649670B2 JP2013008768A JP2013008768A JP5649670B2 JP 5649670 B2 JP5649670 B2 JP 5649670B2 JP 2013008768 A JP2013008768 A JP 2013008768A JP 2013008768 A JP2013008768 A JP 2013008768A JP 5649670 B2 JP5649670 B2 JP 5649670B2
Authority
JP
Japan
Prior art keywords
points
input method
point
image
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2013008768A
Other languages
Japanese (ja)
Other versions
JP2013122777A (en
Inventor
佐藤 実
実 佐藤
澤田 純一
純一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2013008768A priority Critical patent/JP5649670B2/en
Publication of JP2013122777A publication Critical patent/JP2013122777A/en
Application granted granted Critical
Publication of JP5649670B2 publication Critical patent/JP5649670B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)

Description

本発明は入力方法に関し、より詳細には、特にナビゲーションシステムなどに採用され、地図などの画像の縮尺変更操作などの操作性の向上を図る入力方法に関する。   The present invention relates to an input method, and more particularly to an input method that is employed in a navigation system or the like and that improves operability such as a scale changing operation of an image such as a map.

ナビゲーションシステムには、通常、表示画面上に地図を表示し、その地図上に使用者により入力された目的地、該目的地までの誘導ルート、自車の現在位置に対応する自車位置マーク、及びそれまでの自車の走行軌跡等を重ねて表示する機能が装備されており、使用者は、この表示画面を逐次参照することで、進路情報を得ることができ、その進路情報に従うことで目的地に到達することができるようになっている。また、地図の表示については、縮尺を変更する機能が装備されており、自由に地図を拡大したり、縮小したりすることができるようにもなっている。このように、ナビゲーションシステムにおいては、実に優れた機能が実現されている。   The navigation system usually displays a map on the display screen, the destination input by the user on the map, the guidance route to the destination, the vehicle position mark corresponding to the current position of the vehicle, In addition, the user can obtain the route information by referring to this display screen one after the other and follow the route information. You can reach your destination. Moreover, the map display is equipped with a function for changing the scale so that the map can be freely enlarged or reduced. Thus, in the navigation system, a really excellent function is realized.

しかしながら、いくら優れた機能を実現することができたとしても、操作が煩雑であったり、難しかったりとその操作性が悪ければ、その価値も半減してしまう。ところで、ナビゲーションシステムの操作は、スイッチ操作やメニュー選択により行うのが従来からの主流であり、メニュー選択については、ジョイスティックや、ディスプレイの表示画面上に重ねて設けられたタッチパネルの操作により行われるようになっている。   However, even if an excellent function can be realized, if the operation is complicated or difficult, the value is reduced by half. By the way, the navigation system is conventionally operated by switch operation or menu selection, and the menu selection is performed by operation of a joystick or a touch panel provided on the display screen of the display. It has become.

タッチパネルの操作は、指で表示画面に触れるだけであるので、非常に使い勝手の良いヒューマンインターフェースを実現することができるが、従来のままでは、十分とは言えず、更なる改良が望まれている。特に、ナビゲーションシステムに採用される表示画面は、パソコンなどの情報機器に採用される表示画面と比較しても、あまり大きいものとは言えず、むしろ小さいため、タッチパネルの操作だからといっても、その操作性が優れているとは言えなかった。   Since the touch panel can be operated simply by touching the display screen with a finger, it is possible to realize a very easy-to-use human interface. However, the conventional state is not sufficient, and further improvement is desired. . In particular, the display screens used in navigation systems are not very large compared to the display screens used in information devices such as personal computers. Was not good.

また、ナビゲーションシステムの操作については、車両走行中に操作することや、また信号待ちなどの一寸した合間に操作することが考えられるので、各使用者それぞれに適した設定となっていることも操作性向上の重要な要素となる。   In addition, the navigation system can be operated while the vehicle is running, or it can be operated in a short interval such as waiting for a signal. It is an important factor for improving the performance.

課題を解決するための手段及びその効果Means for solving the problems and their effects

本発明は上記課題に鑑みなされたものであって、地図などの画像の拡大や縮小などの機能を、使用者の意思通りに柔軟にかつ容易に入力操作することのできる入力方法を提供することを目的としている。   The present invention has been made in view of the above problems, and provides an input method capable of performing a flexible and easy input operation of functions such as enlargement or reduction of an image such as a map according to a user's intention. It is an object.

上記目的を達成するために本発明に係る入力方法()は、タッチパネルの入力操作において、指示された2点を検出するステップと、該2点の位置によって定まる点ではない位置検出手段からの自車位置に基づく固定点を基準とし、前記2点を検出するステップによって検出された指示された2点間の移動状況に基づき表示の回転処理を行うステップと、前記2点の位置によって定まる点ではない画像の中心点に基づく固定点を基準とし、前記2点を検出するステップによって検出された前記指示された2点間の移動状況に基づき回転処理を行うステップとを有し、これら回転処理を行うステップのいずれかを選択して表示の回転を行うことを特徴としている。 In order to achieve the above object, an input method ( 1 ) according to the present invention includes a step of detecting two instructed points in an input operation of a touch panel, and a point detection means that is not a point determined by the positions of the two points Based on a fixed point based on the vehicle position as a reference, a step of performing display rotation processing based on a movement situation between the two designated points detected by the step of detecting the two points, and a point determined by the position of the two points A rotation process based on a movement state between the two designated points detected by the step of detecting the two points with reference to a fixed point based on the center point of the image that is not, and the rotation process. The display is rotated by selecting one of the steps for performing the above.

上記入力方法()によれば、前記自車位置に基づく固定点を基準として回転するステップを選択した場合、タッチパネルに対して指示された2点を検出し、該2点の位置によって定まる点ではない位置検出手段からの自車位置に基づく固定点を基準とし、前記検出された2点間の移動状況に基づき表示の回転を行う。例えば、使用者が、タッチパネルに接触させた1本の指を回転軸として、前記タッチパネルへ接触させた他の1本の指を回転させた場合(コンパス使用時の動作に似た動作を行った場合)に、これら2本の指で指示された位置に係わらず、前記2点の位置によって定まる点ではない位置検出手段からの自車位置に基づく固定点を基準として、前記2点間の移動状況(前記他の1本の指の回転方向等)に基づいて表示の回転を行うことができる。したがって、使用者が、タッチパネルのどこを操作しても、今まで見ていた自車位置を見失うことのない、すなわち、変更前から変更後に表示される画像の自車位置を大方予想することができるので、使用者が変更後の自車位置を把握することが容易な、使い勝手の良い、分かりやすい画像の向きを変えた表示を行うことができる。
また、前記画像の中心点に基づく固定点を基準として回転するステップを選択した場合、タッチパネルに対して指示された2点を検出し、該2点の位置によって定まる点ではない画像の中心を固定点として、前記検出された2点間の移動状況に基づき表示の回転を行う。例えば、使用者が、タッチパネルに接触させた1本の指を回転軸として、前記タッチパネルへ接触させた他の1本の指を回転させた場合(コンパス使用時の動作に似た動作を行った場合)に、これら2本の指で指示された位置に係わらず、前記2点の位置によって定まる点ではない前記画像の中心を固定点として、前記2点間の移動状況(前記他の1本の指の回転方向等)に基づいて表示の回転を行うことができる。したがって、使用者が、タッチパネルのどこを操作しても、今まで見ていた前記画像の中心を見失うことのない、すなわち、変更前から変更後に表示される画像を大方予想することができるので、使用者が変更後の画像を把握することが容易な、使い勝手の良い、分かりやすい画像の向きを変えた表示を行うことができる。
このように、表示の回転を行う際の前記固定点として、前記位置検出手段で検出された自車位置及び前記画像の中心の2種類の固定点を適宜使い分けることができ、使い勝手の良い、分かりやすい表示を行うことができる。
According to the input method ( 1 ), when the step of rotating with reference to the fixed point based on the vehicle position is selected, two points designated on the touch panel are detected, and points determined by the positions of the two points Based on the fixed point based on the vehicle position from the position detection means that is not the reference, the display is rotated based on the detected movement state between the two points. For example, when the user rotates the other finger that is in contact with the touch panel with one finger that is in contact with the touch panel as the rotation axis (the operation is similar to that when using the compass) In the case), the movement between the two points on the basis of the fixed point based on the vehicle position from the position detection means that is not a point determined by the position of the two points, regardless of the position designated by these two fingers. The display can be rotated based on the situation (such as the rotation direction of the other finger). Therefore, the user does not lose sight of the vehicle position that has been viewed until now, that is, the user can predict the vehicle position of the image displayed before and after the change. Therefore, it is possible to perform display that is easy to use and easy to understand and in which the user can easily understand the position of the vehicle after the change.
In addition, when the step of rotating with reference to the fixed point based on the center point of the image is selected, two points designated on the touch panel are detected, and the center of the image that is not determined by the position of the two points is fixed. As a point, the display is rotated based on the detected movement state between the two points. For example, when the user rotates the other finger that is in contact with the touch panel with one finger that is in contact with the touch panel as the rotation axis (the operation is similar to that when using the compass) In other words, regardless of the position designated by these two fingers, the movement state between the two points (the other one) is set with the center of the image that is not determined by the position of the two points as a fixed point. The display can be rotated based on the rotation direction of the finger. Therefore, the user can operate anywhere on the touch panel without losing sight of the center of the image that has been viewed so far, that is, the image displayed after the change can be largely predicted from before the change. It is easy for the user to grasp the changed image, and it is possible to perform display that is easy to use and easy to understand, with the orientation of the image being changed.
In this way, as the fixed point when rotating the display, the vehicle position detected by the position detection means and the two types of fixed points at the center of the image can be used properly, and it is easy to use. Easy display.

また本発明に係る入力方法()は、上記(1)の入力方法において、前記表示が地図であることを特徴としている。 The input method ( 2 ) according to the present invention is characterized in that, in the input method of (1), the display is a map.

上記入力方法()によれば、前記表示が地図であるので、前記固定点を基準として、前記地図の縮尺や向きを変えることができ、たとえ、変更前とは違った表示となっても、変更前から変更後に表示される地図を大方予想することができるので、使用者が瞬間的に変更後の地図な内容を把握することが可能となり、分かりやすい地図の縮尺や向きを変えた表示を行うことができる。 According to the above input method ( 2 ), since the display is a map, the scale and orientation of the map can be changed with the fixed point as a reference, even if the display is different from that before the change. Because most of the map displayed before and after the change can be predicted, it is possible for the user to grasp the map contents after the change instantaneously, and the map scale and orientation that are easy to understand are changed. It can be performed.

本発明の実施の形態(1)に係る入力方法を採用したナビゲーションシステムの要部を概略的に示したブロック図である。It is the block diagram which showed roughly the principal part of the navigation system which employ | adopted the input method which concerns on Embodiment (1) of this invention. 実施の形態(1)に係る入力方法を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the input method which concerns on embodiment (1). 実施の形態(1)に係る入力方法を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the input method which concerns on embodiment (1). (a)、(b)は実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおける拡大処理、縮小処理を説明するための説明図である。(A), (b) is explanatory drawing for demonstrating the expansion process in the navigation system which employ | adopted the input method which concerns on embodiment (1), and a reduction process. 実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおける拡大処理、縮小処理の操作例を説明するための説明図である。It is explanatory drawing for demonstrating the operation example of the expansion process in the navigation system which employ | adopted the input method which concerns on embodiment (1), and a reduction process. 実施の形態(1)に係る入力方法を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the input method which concerns on embodiment (1). (a)、(b)は実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおける拡大処理、縮小処理の操作例を説明するための説明図である。(A), (b) is explanatory drawing for demonstrating the operation example of the expansion process in the navigation system which employ | adopted the input method which concerns on embodiment (1), and a reduction process. 実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the input method which concerns on embodiment (1). 実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the input method which concerns on embodiment (1). 実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the input method which concerns on embodiment (1). 実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおけるスクロール処理の操作例を説明するための説明図である。It is explanatory drawing for demonstrating the operation example of the scroll process in the navigation system which employ | adopted the input method which concerns on embodiment (1). 実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおける拡大処理、縮小処理の操作例を説明するための説明図である。It is explanatory drawing for demonstrating the operation example of the expansion process in the navigation system which employ | adopted the input method which concerns on embodiment (1), and a reduction process. 別の実施の形態に係る入力方法を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the input method which concerns on another embodiment. 別の実施の形態に係る入力方法を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the input method which concerns on another embodiment. 実施の形態(2)に係る入力方法を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the input method which concerns on embodiment (2). 別の実施の形態に係る入力方法を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the input method which concerns on another embodiment. (a)、(b)は実施の形態(3)に係る入力方法を採用したナビゲーションシステムにおける表示処理を説明するための説明図である。(A), (b) is explanatory drawing for demonstrating the display process in the navigation system which employ | adopted the input method which concerns on embodiment (3). 実施の形態(3)に係る入力方法を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the input method which concerns on embodiment (3).

以下、本発明に係る入力方法の実施の形態を図面に基づいて説明する。図1は、実施の形態(1)に係る入力方法を採用したナビゲーションシステムの要部を概略的に示したブロック図である。   Embodiments of an input method according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram schematically showing a main part of a navigation system employing the input method according to the embodiment (1).

車速から演算して走行距離を取得するための車速センサ2と、進行方向を取得するためのジャイロセンサ3とがマイコン1に接続されており、マイコン1は、演算した走行距離、及び進行方向に基づいて自車位置を割り出すようになっている(自律航法)。   A vehicle speed sensor 2 for calculating the travel distance by calculating from the vehicle speed and a gyro sensor 3 for acquiring the traveling direction are connected to the microcomputer 1, and the microcomputer 1 determines the calculated traveling distance and the traveling direction. Based on this, the vehicle position is determined (autonomous navigation).

GPS受信機4は、アンテナ5を介して衛星からのGPS信号を受信するものであり、マイコン1に接続されており、マイコン1は、GPS信号に基づいて自車位置を割り出すようになっている(GPS航法)。   The GPS receiver 4 receives a GPS signal from a satellite via an antenna 5 and is connected to the microcomputer 1, and the microcomputer 1 determines the position of the vehicle based on the GPS signal. (GPS navigation).

また、道路データ等が記憶されたDVD−ROM7(CD−ROMなどの大容量記憶装置も可能)から道路データ等を取り込むことのできるDVDドライブ6がマイコン1に接続されており、マイコン1は、割り出した自車位置と道路データとを合わせる(いわゆる、マップマッチング処理を行う)ことによって、自車位置が正確に示された地図を表示画面9b上へ表示するようになっている。   Further, a DVD drive 6 capable of fetching road data from a DVD-ROM 7 (which can be a large-capacity storage device such as a CD-ROM) in which road data is stored is connected to the microcomputer 1. By matching the determined vehicle position and road data (so-called map matching processing), a map showing the vehicle position accurately is displayed on the display screen 9b.

また、リモコン8に設けられたジョイスティック8aやボタンスイッチ8bから出力されたスイッチ信号や、表示装置9に設けられたボタンスイッチ9aから出力されたスイッチ信号がマイコン1に入力され、これらスイッチ信号に応じた処理がマイコン1で行われるようになっている。例えば、マイコン1は、これらスイッチから移動目的地の情報を取り込むと、自車位置から目的地までの最適ルートを探索し、これを誘導ルートとして地図と共に表示画面9b上に表示するようになっている。   In addition, a switch signal output from the joystick 8a or the button switch 8b provided on the remote controller 8 or a switch signal output from the button switch 9a provided on the display device 9 is input to the microcomputer 1 in accordance with these switch signals. The processing is performed by the microcomputer 1. For example, when the microcomputer 1 takes in the information of the moving destination from these switches, the microcomputer 1 searches for the optimum route from the vehicle position to the destination, and displays this as a guidance route on the display screen 9b together with the map. Yes.

このようにナビゲーション装置では、表示画面9bに地図が表示され、その地図上に使用者により入力された目的地、該目的地までのルート、自車の現在位置に対応する自車位置マーク、及びそれまでの自車の走行軌跡等が重ねて表示されるようになっており、使用者は、この表示画面9bを逐次参照することで、進路情報を得ることができ、その進路情報に従うことで目的地に到達することができるようになっている。   In this way, in the navigation device, the map is displayed on the display screen 9b, the destination input by the user on the map, the route to the destination, the vehicle position mark corresponding to the current position of the vehicle, and The traveling track of the vehicle until then is displayed in a superimposed manner, and the user can obtain the route information by sequentially referring to this display screen 9b, and by following the route information You can reach your destination.

図中10は、表示画面9bへの物理的な接触を検出する接触検出手段10を示しており、接触検出手段10は、使用者が地図画像などの画像の拡大や縮小、回転、スクロールなどの操作を入力するために、画像が表示された表示画面9b上に接触させた指などを検出するためのものであり、表示画面9bに透明なタッチパネルなどが積層されて構成されている。また、接触検出手段10で検出されたデータについては、マイコン1に入力されるようになっている。   In the figure, reference numeral 10 denotes a contact detection means 10 for detecting physical contact with the display screen 9b. The contact detection means 10 is used when the user enlarges or reduces an image such as a map image, rotates, scrolls, etc. This is for detecting a finger or the like touched on the display screen 9b on which an image is displayed in order to input an operation, and is configured by laminating a transparent touch panel or the like on the display screen 9b. Further, the data detected by the contact detection means 10 is input to the microcomputer 1.

また、実施の形態(1)に係る入力方法を採用したナビゲーションシステムでは、表示画面9b上に表示された画面を通じて、使用者が各種設定を行うことができ、図2に示したような『拡大・縮小の設定』画面を通じて、地図画像が表示された表示画面9bに接触させた2本の指を遠ざける動作をしたときに、画像を拡大させるか、又は縮小させるか、他方、2本の指を近づける動作をしたときに、画像を縮小させるか、又は拡大させるかといった設定や、図3に示したような『固定点の設定(拡大・縮小)』画面を通じて、画像を拡大したり、縮小したりするときの固定点を下記1〜4のいずれにするかといった設定を行うことができるようになっている。   Further, in the navigation system employing the input method according to the embodiment (1), the user can make various settings through the screen displayed on the display screen 9b. As shown in FIG. -When the operation of moving the two fingers in contact with the display screen 9b on which the map image is displayed is performed through the "setting of reduction" screen, the image is enlarged or reduced, or on the other hand, the two fingers The image can be enlarged or reduced through the setting of whether to reduce or enlarge the image when the image is moved closer, and the “fixed point setting (enlargement / reduction)” screen as shown in FIG. It is possible to make a setting such as setting any one of the following 1 to 4 as a fixed point.

1 「画像の中心点」
画像の中心点とは、図4(a)に示したように、画像が表示画面9bの画面一杯に表示されている場合には、表示画面9bの中心点aと同じとなり、図4(b)に示したように、画像が表示画面9b一杯に表示されていない場合には点bとなる。
2 「自車位置マークの表示地点」
自車位置マークの表示地点とは、図4(a)、図4(b)に示したように、黒三角で表されている自車位置マークMが表示されている地点である。
1 “Center of image”
As shown in FIG. 4A, the center point of the image is the same as the center point a of the display screen 9b when the image is displayed on the full screen of the display screen 9b. As shown in (), when the image is not fully displayed on the display screen 9b, the point b is obtained.
2 "Vehicle position mark display point"
The display point of the own vehicle position mark is a point where the own vehicle position mark M represented by a black triangle is displayed as shown in FIGS. 4 (a) and 4 (b).

3.1 「左端」
2本の指を表示画面9bに最初に接触させた点(すなわち、移動開始前の接触点)のうち、表示画面9bの左端に最も近い点であり、例えば、図5に示したように、右手の親指と人差し指とを使って操作する場合には、親指で触れた点cが固定点となる。
3.2 「右端」
2本の指を表示画面9bに最初に接触させた点のうち、表示画面9bの右端に最も近い点であり、例えば、図5に示したように、右手の親指と人差し指とを使って操作する場合には、人差し指で触れた点dが固定点となる。
3.3 「上端」
2本の指を表示画面9bに最初に接触させた点のうち、表示画面9bの右端に最も近い点であり、例えば、図5に示したように、右手の親指と人差し指とを使って操作する場合には、人差し指で触れた点dが固定点となる。
3.4 「下端」
2本の指を表示画面9bに最初に接触させた点のうち、表示画面9bの右端に最も近い点であり、例えば、図5に示したように、右手の親指と人差し指とを使って操作する場合には、親指で触れた点cが固定点となる。
3.1 “Left end”
Of the points where two fingers are first brought into contact with the display screen 9b (that is, the contact points before the start of movement), this is the point closest to the left end of the display screen 9b. For example, as shown in FIG. When an operation is performed using the thumb and index finger of the right hand, the point c touched by the thumb is a fixed point.
3.2 “Right end”
Among points where two fingers are first brought into contact with the display screen 9b, the point closest to the right end of the display screen 9b is operated using, for example, the thumb and index finger of the right hand as shown in FIG. In this case, the point d touched with the index finger becomes a fixed point.
3.3 “Top”
Among points where two fingers are first brought into contact with the display screen 9b, the point closest to the right end of the display screen 9b is operated using, for example, the thumb and index finger of the right hand as shown in FIG. In this case, the point d touched with the index finger becomes a fixed point.
3.4 “Bottom”
Among points where two fingers are first brought into contact with the display screen 9b, the point closest to the right end of the display screen 9b is operated using, for example, the thumb and index finger of the right hand as shown in FIG. In this case, the point c touched by the thumb becomes a fixed point.

4 「2点の中間点」
2本の指を表示画面9bに最初に接触させた点の中間点であり、例えば、図5に示したように、右手の親指と人差し指とを使って操作する場合には、親指での接触点と人差し指での接触点とを結ぶ線分の中間点eが固定点となる。
4 “Midpoint between two points”
This is an intermediate point between the points where two fingers first contact the display screen 9b. For example, as shown in FIG. 5, when operating with the thumb and index finger of the right hand, the contact with the thumb The middle point e of the line segment connecting the point and the contact point with the index finger is a fixed point.

また、図6に示したような『固定点の設定(回転移動)』画面を通じて、画像を回転移動させるとき(すなわち、画像の表示の向きを変えるとき)の固定点を下記1〜3のいずれにするかといった設定を行うことができるようになっている。   Further, through the “fixed point setting (rotational movement)” screen as shown in FIG. 6, the fixed point when rotating the image (that is, when changing the display direction of the image) is set to any of the following 1-3. You can make settings such as

1 「画像の中心点」(図4参照)
2 「自車位置マークの表示地点」(図4参照)
3 「回転軸」
回転軸として、表示画面9bに接触させた地点であり、例えば、図7(a)、(b)に示したように、右手の親指と人差し指とを使い、親指を回転軸として、人差し指を回転移動(点g→点g’)させる場合には、親指での接触点fが固定点となる。
1 “Image center point” (see Figure 4)
2 “Vehicle position mark display point” (see Figure 4)
3 “Rotating shaft”
The point of contact with the display screen 9b as the rotation axis. For example, as shown in FIGS. 7A and 7B, the thumb and index finger of the right hand are used, and the index finger is rotated around the thumb as the rotation axis. When moving (point g → point g ′), the contact point f with the thumb becomes a fixed point.

次に、実施の形態(1)に係る入力方法を採用したナビゲーションシステムにおけるマイコン1の行う処理動作(1)を図8〜図10に示したフローチャートに基づいて説明する。   Next, the processing operation (1) performed by the microcomputer 1 in the navigation system employing the input method according to the embodiment (1) will be described based on the flowcharts shown in FIGS.

まず、タッチパネルへの物理的な接触があったか否か、すなわち、タッチパネルへの指の接触があったか否かを判断し(ステップS1)、タッチパネルへの指の接触がないと判断すれば、処理動作(1)を終了する。一方、タッチパネルへの指の接触があったと判断すれば、タイマtを起動させる(ステップS2)。   First, it is determined whether or not there has been a physical contact with the touch panel, that is, whether or not there has been a finger contact with the touch panel (step S1). End 1). On the other hand, if it is determined that a finger touches the touch panel, the timer t is started (step S2).

次にタイマtの起動後、タッチパネルへの接触箇所が2以上あるか否かを判断し(ステップS3)、接触箇所が2以上ない、すなわち1箇所だけであると判断すれば、接触点が移動しているか否かを判断し(ステップS4)、接触点が移動している(すなわち、表示画面9b上で指を動かしている)と判断すれば、前記移動が直線移動であるか否か(すなわち、指の動作が直線動作であるか否か)を判断し(ステップS5)、前記移動が直線移動である(図11参照)と判断すれば、その移動方向に合わせて、表示画面9bに表示されている画像に対してスクロール処理を施す(ステップS6)。   Next, after the timer t is started, it is determined whether or not there are two or more touch points on the touch panel (step S3). If it is determined that there are two or more touch points, that is, only one point, the touch point moves. If it is determined whether or not the contact point is moving (that is, the finger is moved on the display screen 9b), whether or not the movement is a linear movement ( That is, it is determined whether or not the movement of the finger is a linear movement (step S5), and if it is determined that the movement is a linear movement (see FIG. 11), the display screen 9b is displayed in accordance with the movement direction. A scroll process is performed on the displayed image (step S6).

一方、ステップS5における判断処理で、前記移動が直線移動でないと判断すれば、前記移動が回転移動であるか否か(すなわち、指の動作が回転動作であるか否か)を判断し(ステップS7)、前記移動が回転移動である(図12参照)と判断すれば、回転方向が時計回りであるか否かを判断し(ステップS8)、回転方向が時計回りであると判断すれば、表示画面9bに表示されている画像に対して拡大処理を施し(ステップS9)、回転方向が反時計回りであると判断すれば、表示画面9bに表示されている画像に対して縮小処理を施す(ステップS10)。一方、ステップS7における判断処理で、前記移動が回転移動でないと判断すれば、そのまま処理動作(1)を終了する。   On the other hand, if it is determined in step S5 that the movement is not a linear movement, it is determined whether or not the movement is a rotational movement (that is, whether or not the movement of the finger is a rotational movement) (step S1). S7) If it is determined that the movement is a rotational movement (see FIG. 12), it is determined whether the rotation direction is clockwise (step S8), and if it is determined that the rotation direction is clockwise, An enlargement process is performed on the image displayed on the display screen 9b (step S9), and if it is determined that the rotation direction is counterclockwise, a reduction process is performed on the image displayed on the display screen 9b. (Step S10). On the other hand, if it is determined in step S7 that the movement is not a rotational movement, the processing operation (1) is terminated.

また、ステップS4における判断処理で、接触点が移動していない(すなわち、表示画面9上で指を動かしていない)と判断すれば、タッチパネルへの接触がなくなったか否か、すなわち、タッチパネル9bに接触していた指がタッチパネル9bから離れたか否かを判断し(ステップS11)、タッチパネルから指が離れたと判断すれば、略同一点でのタッチパネルへの再接触があったか否かを判断する(ステップS12)。   If it is determined in the determination process in step S4 that the contact point has not moved (that is, the finger is not moved on the display screen 9), whether or not the touch to the touch panel is lost, that is, the touch panel 9b is displayed. It is determined whether or not the touched finger has been released from the touch panel 9b (step S11). If it is determined that the finger has been released from the touch panel, it is determined whether or not there has been re-contact with the touch panel at substantially the same point (step S11). S12).

タッチパネルへの再接触がないと判断すれば、タイマtが所定時間t1 (例えば、1秒)経過しているか否かを判断し(ステップS13)、タイマtが所定時間t1 経過している(すなわち、所定時間t1 内での接触回数が1回)と判断すれば、表示画面9bに表示されている画像に対して縮小処理を施す(ステップS14)。一方、タイマtが所定時間t1 経過していないと判断すれば、ステップS12へ戻る。 If it is determined that there is no re-contact with the touch panel, it is determined whether or not the timer t has elapsed a predetermined time t 1 (for example, 1 second) (step S13), and the timer t has elapsed the predetermined time t 1 . If it is determined that the number of times of contact within the predetermined time t 1 is one, reduction processing is performed on the image displayed on the display screen 9b (step S14). On the other hand, if the timer t determines that the predetermined time t 1 has not elapsed, the process returns to step S12.

一方、ステップS12における判断処理で、タッチパネルへの物理的な再接触があった、すなわち、所定時間t1 内に2回接触があった(使用者がタッチパネルへ連続的にタッチした)と判断すれば、表示画面9bに表示されている画像に対して拡大処理を施す(ステップS15)。 On the other hand, in the determination processing in step S12, there is a physical re-contact to the touch panel, i.e., it is judged that there is a contact twice in a predetermined time t 1 (user was continuously touching the touch panel) For example, the image displayed on the display screen 9b is enlarged (step S15).

また、ステップS11における判断処理で、タッチパネルから指が離れていないと判断すれば、タイマtが所定時間t1 経過しているか否かを判断し(ステップS16)、タイマtが所定時間t1 経過していると判断すれば、表示画面9bに表示されている画像に対して縮小処理を施し(ステップS14)、一方、タイマtが所定時間t1 経過していないと判断すれば、ステップS11へ戻る。 Further, in the determination process in step S11, it is judged that the finger from the touch panel is not separated, the timer t is determined whether the predetermined time t 1 has elapsed (step S16), and the timer t is the predetermined time t 1 has elapsed if to have a judgment, subjected to reduction processing for the image displayed on the display screen 9b (step S14), and on the other hand, when it is judged that the timer t is not the predetermined time t 1 has elapsed, the step S11 Return.

ところで、ステップS3における判断処理で、タッチパネルへの接触箇所が2以上ある(すなわち、タッチパネルへ2本の指が接触している)と判断すれば、2点間の距離の変化を算出し(ステップS21)、2点間の距離が長くなっているか否かを判断し(ステップS22)、2点間の距離が長くなっている(すなわち、使用者によって2本の指を遠ざける動作が行われている)と判断すれば、『固定点の設定(拡大・縮小)』画面(図3参照)を通じて設定された内容に基づいて、拡大処理、又は縮小処理(後のステップS24における処理)を施すにあたっての固定点を算出する(ステップS23)。   By the way, if it is determined in step S3 that there are two or more touch points on the touch panel (that is, two fingers are touching the touch panel), a change in distance between the two points is calculated (step S21) It is determined whether or not the distance between the two points is long (step S22). The distance between the two points is long (that is, the user performs an operation of moving two fingers away). If it is determined that the enlargement process or the reduction process (the process in the subsequent step S24) is performed based on the contents set through the “fixed point setting (enlargement / reduction)” screen (see FIG. 3). The fixed point is calculated (step S23).

次に、『拡大・縮小の設定』画面(図2参照)を通じて設定された内容に基づいて、表示画面9bに表示されている画像に対して、拡大処理、又は縮小処理を施す(ステップS24)。なお、このときステップS23で算出した固定点を固定するようにして画像処理を施す。   Next, an enlargement process or a reduction process is performed on the image displayed on the display screen 9b based on the contents set through the “enlargement / reduction setting” screen (see FIG. 2) (step S24). . At this time, image processing is performed so as to fix the fixed point calculated in step S23.

一方、ステップS22における判断処理で、2点間の距離が長くなっていないと判断すれば、次に2点間の距離が短くなっているか否かを判断し(ステップS25)、2点間の距離が短くなっている(すなわち、使用者によって2本の指を近づける動作が行われている)と判断すれば、『固定点の設定(拡大・縮小)』画面(図3参照)を通じて設定された内容に基づいて、拡大処理、又は縮小処理(後のステップS27における処理)を施すにあたっての固定点を算出する(ステップS26)。   On the other hand, if it is determined in step S22 that the distance between the two points is not long, it is next determined whether or not the distance between the two points is short (step S25). If it is determined that the distance is short (ie, the user is moving two fingers closer), the setting is made through the “fixed point setting (enlargement / reduction)” screen (see FIG. 3). Based on the contents, a fixed point for performing the enlargement process or the reduction process (the process in the subsequent step S27) is calculated (step S26).

次に、『拡大・縮小の設定』画面(図2参照)を通じて設定された内容に基づいて、表示画面9bに表示されている画像に対して、拡大処理、又は縮小処理を施す(ステップS27)。なお、このときステップS26で算出した固定点を固定するようにして画像処理を施す。   Next, an enlargement process or a reduction process is performed on the image displayed on the display screen 9b based on the contents set through the “enlargement / reduction setting” screen (see FIG. 2) (step S27). . At this time, image processing is performed so as to fix the fixed point calculated in step S26.

ステップS25における判断処理で、2点間の距離が短くなっていないと判断すれば、次に一方の接触点を回転軸として、他方の接触点が回転移動しているか否かを判断し(ステップS28)、回転移動していると判断すれば、『固定点の設定(回転移動)』画面(図6参照)を通じて設定された内容に基づいて、回転処理(後のステップS30における処理)を施すにあたっての固定点を算出する(ステップS29)。次に、算出した固定点を固定するようにして、回転移動の向きに合わせて、表示画面9bに表示されている画像の向きを変える処理を施す(ステップS30)。   If it is determined in the determination process in step S25 that the distance between the two points is not shortened, it is next determined whether or not the other contact point is rotationally moved with the one contact point as the rotation axis (step S25). S28) If it is determined that it is rotating, based on the contents set through the “fixed point setting (rotating movement)” screen (see FIG. 6), the rotation process (the process in the subsequent step S30) is performed. A fixed point at the time of calculation is calculated (step S29). Next, a process of changing the orientation of the image displayed on the display screen 9b according to the direction of the rotational movement is performed so as to fix the calculated fixed point (step S30).

上記実施の形態(1)に係る入力方法を採用したナビゲーションシステムでは、指一本での時計回りの回転動作が検出されると、拡大処理を施し(ステップS9参照)、逆に反時計回りの回転動作が検出されると、縮小処理を施す(ステップS10)ようになっているが、別の実施の形態では、時計回りの回転動作が検出されると、縮小処理を施し、反時計回りの回転動作が検出されると、拡大処理を施すようにしても良い。さらに、別の実施の形態に係る入力方法では、図13に示したような画面を通じて、これら処理を使用者が自由に選択できるようにし、マイコン1が前記画面を通じて拡大処理や縮小処理を行うようにしても良い。   In the navigation system that employs the input method according to the above embodiment (1), when a clockwise rotation operation with one finger is detected, an enlargement process is performed (refer to step S9). When a rotation operation is detected, a reduction process is performed (step S10). However, in another embodiment, when a clockwise rotation operation is detected, a reduction process is performed and a counterclockwise rotation is performed. When a rotation operation is detected, an enlargement process may be performed. Furthermore, in the input method according to another embodiment, the user can freely select these processes through the screen as shown in FIG. 13, and the microcomputer 1 performs the enlargement process and the reduction process through the screen. Anyway.

また、上記実施の形態(1)に係る入力方法を採用したナビゲーションシステムでは、指一本での1タッチ動作が検出されると、縮小処理を施し(ステップS14参照)、指一本での連続タッチ動作が検出されると、拡大処理を施す(ステップS15参照)ようになっているが、別の実施の形態では、1タッチ動作が検出されると、拡大処理を施し、連続タッチ動作が検出されると、縮小処理を施すようにしても良い。さらに、別の実施の形態に係る入力方法では、図14に示したような画面を通じて、これら処理を使用者が自由に選択できるようにし、マイコン1が前記画面を通じて拡大処理や縮小処理を行うようにしても良い。   Further, in the navigation system employing the input method according to the above embodiment (1), when one touch operation with one finger is detected, a reduction process is performed (see step S14), and continuous with one finger. When a touch operation is detected, an enlargement process is performed (see step S15). However, in another embodiment, when a one-touch operation is detected, an enlargement process is performed and a continuous touch operation is detected. Then, reduction processing may be performed. Furthermore, in the input method according to another embodiment, the user can freely select these processes through the screen as shown in FIG. 14, and the microcomputer 1 performs the enlargement process and the reduction process through the screen. Anyway.

また、上記実施の形態(1)に係る入力方法を採用したナビゲーションシステムでは、2本の指を遠ざける動作や、近づける動作が検出されると、拡大処理や縮小処理(ステップS24、S27参照)を施すようになっているが、別の実施の形態では、2本の指に限定せず、例えば、3本の指を遠ざける動作や、近づける動作が検出されると、拡大処理や縮小処理を施すようにしても良い。   In addition, in the navigation system employing the input method according to the above embodiment (1), when an operation of moving two fingers away or an operation of moving them closer is detected, an enlargement process and a reduction process (see steps S24 and S27) are performed. However, in another embodiment, the present invention is not limited to two fingers. For example, when an operation of moving three fingers away or an operation of moving them closer is detected, enlargement processing or reduction processing is performed. You may do it.

なお、3本の指が遠ざかっている(又は近づいている)か否かの判断方法としては、例えば、3箇所の接触点から構成される3角形の重心を求めて、その重心から遠ざかる(又は近づく)方向へ指が動いているか否かを判断する方法が挙げられる。   In addition, as a method for determining whether or not three fingers are moving away (or approaching), for example, the center of gravity of a triangle composed of three contact points is obtained and moved away from the center of gravity (or There is a method for determining whether or not the finger is moving in the direction of approaching.

次に、実施の形態(2)に係る入力方法を採用したナビゲーションシステムについて説明する。但し、実施の形態(2)に係る入力方法を採用したナビゲーション装置の構成については、マイコン1を除いて、図1に示したナビゲーションシステムの構成と同様であるため、マイコンには異なる符号を付し、その他の説明をここでは省略する。   Next, a navigation system that employs the input method according to Embodiment (2) will be described. However, the configuration of the navigation apparatus adopting the input method according to the embodiment (2) is the same as the configuration of the navigation system shown in FIG. Other explanations are omitted here.

実施の形態(2)に係る入力方法を採用したナビゲーションシステムにおけるマイコン1Aの行う処理動作(2)を図15に示したフローチャートに基づいて説明する。   A processing operation (2) performed by the microcomputer 1A in the navigation system employing the input method according to the embodiment (2) will be described based on the flowchart shown in FIG.

まず、リモコン8などを操作することによって、ナビゲーションシステムが誘導ルートの設定モードになっているか否かを判断し(ステップS31)、誘導ルートの設定モードになっていないと判断すれば、処理動作(2)を終了し、誘導ルートの設定モードになっていると判断すれば、タッチパネルへの物理的な接触があったか否か、すなわち、タッチパネルへの指の接触があったか否かを判断する(ステップS32)。   First, by operating the remote controller 8 or the like, it is determined whether or not the navigation system is in the guidance route setting mode (step S31). If it is determined that the navigation route is not in the guidance route setting mode, the processing operation ( If it is determined that the guidance route setting mode has been completed, it is determined whether or not there is a physical contact with the touch panel, that is, whether or not a finger touches the touch panel (step S32). ).

タッチパネルへの指の接触がないと判断すれば、処理動作(2)を終了し、タッチパネルへの指の接触があったと判断すれば、タイマtを起動させる(ステップS33)。タイマtの起動後、タッチパネルへの接触がなくなったか否か、すなわち、タッチパネルに接触していた指がタッチパネルから離れたか否かを判断し(ステップS34)、タッチパネルから指が離れたと判断すれば、略同一地点でのタッチパネルへの再接触があったか否かを判断する(ステップS35)。   If it is determined that there is no finger contact with the touch panel, the processing operation (2) is terminated, and if it is determined that there is a finger contact with the touch panel, the timer t is started (step S33). After the timer t is started, it is determined whether or not the touch on the touch panel has been lost, that is, whether or not the finger touching the touch panel has been released from the touch panel (step S34). It is determined whether or not there has been re-contact with the touch panel at substantially the same point (step S35).

タッチパネルへの再接触がないと判断すれば、タイマtが所定時間t2 (例えば、1秒)経過しているか否かを判断し(ステップS36)、タイマtが所定時間t2 経過している(すなわち、所定時間t2 内での接触回数が1回)と判断すれば、そのまま処理動作(2)を終了する。一方、タイマtが所定時間t2 経過していないと判断すれば、ステップS35へ戻る。 If it is determined that there is no re-contact with the touch panel, it is determined whether or not the timer t has elapsed a predetermined time t 2 (eg, 1 second) (step S36), and the timer t has elapsed the predetermined time t 2 . If it is determined that the number of times of contact within the predetermined time t 2 is one, the processing operation (2) is terminated as it is. On the other hand, if the timer t determines that the predetermined time t 2 has not elapsed, the process returns to step S35.

一方、ステップS35における判断処理で、タッチパネルへの物理的な再接触があった、すなわち、所定時間t2 内に2回接触があった(使用者がタッチパネルへ連続的にタッチした)と判断すれば、接触点に対応する、表示画面9bに表示されている地図画像の地点を誘導ルートを算出するにあたっての目的地に設定する(ステップS37)。 On the other hand, in the determination processing in step S35, there is a physical re-contact to the touch panel, i.e., it is judged that there is a contact twice in a predetermined time t in 2 (user was continuously touching the touch panel) For example, the point of the map image displayed on the display screen 9b corresponding to the contact point is set as the destination for calculating the guidance route (step S37).

また、ステップS34における判断処理で、タッチパネルから指が離れていないと判断すれば、タイマtが所定時間t3 (例えば、1秒)経過しているか否かを判断し(ステップS38)、タイマtが所定時間t3 経過している、すなわち、タッチパネルが長く押されていると判断すれば、接触点に対応する、表示画面9bに表示されている地図画像の地点を誘導ルートを算出するにあたっての中継地に設定する(ステップS39)。一方、タイマtが所定時間t3 経過していないと判断すれば、ステップS34へ戻る。 Further, in the determination process in step S34, if it is determined that no remote finger from the touch panel, the timer t is determined whether predetermined time has elapsed t 3 (e.g., 1 second) (step S38), the timer t If the predetermined time t 3 has elapsed, that is, it is determined that the touch panel has been pressed for a long time, the map route corresponding to the contact point on the map image displayed on the display screen 9b is calculated in calculating the guidance route. A relay point is set (step S39). On the other hand, if the timer t determines that the predetermined time t 3 has not elapsed, the process returns to step S34.

また、上記実施の形態(2)に係る入力方法を採用したナビゲーションシステムでは、指一本での連続タッチ動作が検出されると、目的地を設定し(ステップS37参照)、長押し動作が検出されると、中継地を設定する(ステップS39参照)ようになっているが、別の実施の形態では、連続タッチ動作が検出されると、中継地を設定し、長押し動作が検出されると、目的地を設定するようにしても良い。さらに、別の実施の形態に係る入力方法では、図16に示したような画面を通じて、これら処理を使用者が自由に選択できるようにし、マイコン1が前記画面を通じて拡大処理や縮小処理を行うようにしても良い。   In the navigation system employing the input method according to the embodiment (2), when a continuous touch operation with one finger is detected, a destination is set (see step S37), and a long press operation is detected. Then, a relay point is set (see step S39). However, in another embodiment, when a continuous touch operation is detected, a relay point is set and a long press operation is detected. The destination may be set. Furthermore, in the input method according to another embodiment, the user can freely select these processes through the screen as shown in FIG. 16, and the microcomputer 1 performs the enlargement process and the reduction process through the screen. Anyway.

次に、実施の形態(3)に係る入力方法を採用したナビゲーションシステムについて説明する。但し、実施の形態(3)に係る入力方法を採用したナビゲーション装置の構成については、マイコン1を除いて、図1に示したナビゲーションシステムの構成と同様であるため、マイコンには異なる符号を付し、その他の説明をここでは省略する。   Next, a navigation system that employs the input method according to Embodiment (3) will be described. However, the configuration of the navigation apparatus adopting the input method according to the embodiment (3) is the same as the configuration of the navigation system shown in FIG. Other explanations are omitted here.

実施の形態(3)に係る入力方法を採用したナビゲーションシステムでは、タッチパネルの操作が可能であるときに、図17(a)に示したように、タッチパネルの操作を支援するための支援画像p(例えば、アイコン)が表示されるようになっているため、タッチパネルの操作がより使い易くなっている。   In the navigation system employing the input method according to the embodiment (3), when the touch panel can be operated, as shown in FIG. 17A, the support image p ( For example, an icon) is displayed, which makes the operation of the touch panel easier to use.

次に、実施の形態(3)に係る入力方法を採用したナビゲーションシステムにおけるマイコン1Bの行う処理動作(3)を図18に示したフローチャートに基づいて説明する。   Next, the processing operation (3) performed by the microcomputer 1B in the navigation system adopting the input method according to the embodiment (3) will be described based on the flowchart shown in FIG.

まず、リモコン8による操作が行われたか否かを判断し(ステップS41)、リモコン8による操作が行われたと判断すれば、図17(b)に示したような画面となるように、支援画像pを画面上から消去する(ステップS42)。一方、リモコン8による操作が行われていないと判断すれば、表示装置9に装備されているボタンスイッチ9aによる操作が行われたか否かを判断する(ステップS43)。   First, it is determined whether or not an operation with the remote controller 8 has been performed (step S41). If it is determined that an operation with the remote controller 8 has been performed, a support image is displayed so as to obtain a screen as shown in FIG. p is deleted from the screen (step S42). On the other hand, if it is determined that the operation using the remote controller 8 is not performed, it is determined whether or not the operation using the button switch 9a provided in the display device 9 is performed (step S43).

表示装置9に装備されているボタンスイッチ9aによる操作が行われたと判断すれば、図17(b)に示したような画面となるように、支援画像pを画面上から消去する(ステップS42)。一方、表示装置9に装備されているボタンスイッチ9aによる操作が行われていないと判断すれば、そのまま処理動作(3)を終了する。   If it is determined that the operation using the button switch 9a provided in the display device 9 has been performed, the support image p is erased from the screen so as to obtain a screen as shown in FIG. 17B (step S42). . On the other hand, if it is determined that the operation by the button switch 9a provided in the display device 9 is not performed, the processing operation (3) is ended as it is.

支援画像pを表示画面9bへ表示していると、主たる画像(例えば、地図画像)を表示するスペースが小さくなってしまうが、上記実施の形態(3)に係る入力方法を採用したナビゲーションシステムによれば、リモコン8による操作や、表示装置9に装備されているボタンスイッチ9aによる操作が行われる場合には、支援画面pを消去するので、主たる画像(例えば、地図画像)を見易くすることができる。   When the support image p is displayed on the display screen 9b, a space for displaying a main image (for example, a map image) is reduced. However, the navigation system adopting the input method according to the embodiment (3) is used. Therefore, when the operation by the remote controller 8 or the operation by the button switch 9a provided in the display device 9 is performed, the support screen p is deleted, so that the main image (for example, a map image) can be easily viewed. it can.

以上、実施の形態(1)〜(3)に係る入力方法においては、ナビゲーションシステムに採用し、地図を使用者の意思通りに拡大、縮小する場合などについて説明しているが、別の実施の形態に係る入力方法では、ナビゲーションシステム以外のものに採用するようにしても良く、また地図だけでなく、文字や図などの画像の制御を行うようにしても良い。   As described above, in the input methods according to the embodiments (1) to (3), the case where the map is adopted in the navigation system and the map is enlarged or reduced as the user intends has been described. The input method according to the embodiment may be adopted for other than the navigation system, and may control not only the map but also images such as characters and diagrams.

1、1A、1B マイコン
8 リモコン
9 表示装置
9a ボタンスイッチ
9b 表示画面
10 接触検出手段
1, 1A, 1B Microcomputer 8 Remote control 9 Display device 9a Button switch 9b Display screen 10 Contact detection means

Claims (2)

タッチパネルの入力操作において、指示された2点を検出するステップと、
該2点の位置によって定まる点ではない位置検出手段からの自車位置に基づく固定点を基準とし、前記2点を検出するステップによって検出された指示された2点間の移動状況に基づき表示の回転処理を行うステップと、
前記2点の位置によって定まる点ではない画像の中心点に基づく固定点を基準とし、前記2点を検出するステップによって検出された前記指示された2点間の移動状況に基づき回転処理を行うステップとを有し、
これら回転処理を行うステップのいずれかを選択して表示の回転を行うことを特徴とする入力方法。
Detecting two instructed points in the touch panel input operation;
Based on a fixed point based on the vehicle position from the position detection means that is not a point determined by the position of the two points, the display is based on the movement status between the two points indicated by the step of detecting the two points. Performing a rotation process;
A step of performing a rotation process based on a movement state between the designated two points detected by the step of detecting the two points with reference to a fixed point based on a center point of an image that is not a point determined by the positions of the two points. And
An input method characterized by selecting one of these rotation processing steps and rotating the display.
前記表示が地図であることを特徴とする請求項1記載の入力方法。 Input method according to claim 1, wherein the display is characterized in that it is a map.
JP2013008768A 2013-01-21 2013-01-21 input method Expired - Lifetime JP5649670B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013008768A JP5649670B2 (en) 2013-01-21 2013-01-21 input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013008768A JP5649670B2 (en) 2013-01-21 2013-01-21 input method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001115428A Division JP5259898B2 (en) 2001-04-13 2001-04-13 Display device and display processing method

Publications (2)

Publication Number Publication Date
JP2013122777A JP2013122777A (en) 2013-06-20
JP5649670B2 true JP5649670B2 (en) 2015-01-07

Family

ID=48774664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013008768A Expired - Lifetime JP5649670B2 (en) 2013-01-21 2013-01-21 input method

Country Status (1)

Country Link
JP (1) JP5649670B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2603008B2 (en) * 1991-06-14 1997-04-23 富士通テン株式会社 Navigation map display enlargement / reduction switching device
JPH11288460A (en) * 1998-04-02 1999-10-19 Sony Corp Movement controller for display screen and electronic equipment equipped with the controller
JP4542637B2 (en) * 1998-11-25 2010-09-15 セイコーエプソン株式会社 Portable information device and information storage medium
JP3830679B2 (en) * 1998-12-10 2006-10-04 アイシン・エィ・ダブリュ株式会社 Map display device and recording medium
JP3501032B2 (en) * 1999-08-30 2004-02-23 トヨタ自動車株式会社 Map display method and map display device

Also Published As

Publication number Publication date
JP2013122777A (en) 2013-06-20

Similar Documents

Publication Publication Date Title
JP5259898B2 (en) Display device and display processing method
JP2008216991A (en) Display device
JP2008217767A (en) Display device
US7788028B2 (en) Navigation system
JP4678534B2 (en) Navigation device and map scroll processing method
JP4992405B2 (en) In-vehicle device operation device
JP4934452B2 (en) Vehicle map display device
US20090024314A1 (en) Map scrolling method and navigation terminal
JP4062158B2 (en) apparatus
JP2008209915A (en) Display device
JPH1137770A (en) Navigation system
JP2004271439A (en) Operation system and cursor controller unit
JP2011192231A (en) In-vehicle input device, and input program therefor
JP5626934B2 (en) Input device and input method
JP5283321B2 (en) Navigation device
JP2012027879A (en) Cursor selection type input device, cursor selection method and computer program
JP2008185452A (en) Navigation device
JP4897342B2 (en) In-vehicle map display device
JP2008216102A (en) On-vehicle navigation system
JP5649670B2 (en) input method
JP2008216990A (en) Display device
JP2010107199A (en) Portable navigation device
JP4381396B2 (en) Navigation device
JP2005308411A (en) In-vehicle information terminal, and road map display method
US20090160695A1 (en) Remote control apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141111

R150 Certificate of patent or registration of utility model

Ref document number: 5649670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term