JP2008217767A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2008217767A
JP2008217767A JP2008018022A JP2008018022A JP2008217767A JP 2008217767 A JP2008217767 A JP 2008217767A JP 2008018022 A JP2008018022 A JP 2008018022A JP 2008018022 A JP2008018022 A JP 2008018022A JP 2008217767 A JP2008217767 A JP 2008217767A
Authority
JP
Japan
Prior art keywords
screen
image
display
map
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008018022A
Other languages
Japanese (ja)
Inventor
Minoru Sato
実 佐藤
Junichi Sawada
純一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2008018022A priority Critical patent/JP2008217767A/en
Publication of JP2008217767A publication Critical patent/JP2008217767A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device capable of flexibly and easily operating the display of images such as maps in accordance with the intention of a user. <P>SOLUTION: The display device includes: a screen 9b for displaying the images; an operating means for detecting contact with the screen 9b and performing an operation with respect to the images; and a display control means for displaying the images by scrolling in response to the movement direction of a contact point in a contact state. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は表示装置に関し、より詳細には、特にナビゲーションシステムなどに採用され
、地図などの画像の縮尺変更操作などの操作性の向上が図られた表示装置に関する。
The present invention relates to a display device, and more particularly, to a display device that is employed in a navigation system or the like and is improved in operability such as a scale changing operation of an image such as a map.

ナビゲーションシステムには、通常、表示画面上に地図を表示し、その地図上に使用者
により入力された目的地、該目的地までの誘導ルート、自車の現在位置に対応する自車位
置マーク、及びそれまでの自車の走行軌跡等を重ねて表示する機能が装備されており、使
用者は、この表示画面を逐次参照することで、進路情報を得ることができ、その進路情報
に従うことで目的地に到達することができるようになっている。また、地図の表示につい
ては、縮尺を変更する機能が装備されており、自由に地図を拡大したり、縮小したりする
ことができるようにもなっている。
このように、ナビゲーションシステムにおいては、実に優れた機能が実現されている。
The navigation system usually displays a map on the display screen, the destination input by the user on the map, the guidance route to the destination, the vehicle position mark corresponding to the current position of the vehicle, In addition, the user can obtain the route information by referring to this display screen one after the other and follow the route information. You can reach your destination. Moreover, the map display is equipped with a function for changing the scale so that the map can be freely enlarged or reduced.
Thus, in the navigation system, a really excellent function is realized.

しかしながら、いくら優れた機能を実現することができたとしても、操作が煩雑であっ
たり、難しかったりとその操作性が悪ければ、その価値も半減してしまう。
ところで、ナビゲーションシステムの操作は、スイッチ操作やメニュー選択により行う
のが従来からの主流であり、メニュー選択については、ジョイスティックや、ディスプレ
イの表示画面上に重ねて設けられたタッチパネルの操作により行われるようになっている
However, even if an excellent function can be realized, if the operation is complicated or difficult, the value is reduced by half.
By the way, the navigation system is conventionally operated by switch operation or menu selection, and the menu selection is performed by operation of a joystick or a touch panel provided on the display screen of the display. It has become.

タッチパネルの操作は、指で表示画面に触れるだけであるので、非常に使い勝手の良い
ヒューマンインターフェースを実現することができるが、従来のままでは、十分とは言え
ず、更なる改良が望まれている。
特に、ナビゲーションシステムに採用される表示画面は、パソコンなどの情報機器に採
用される表示画面と比較しても、あまり大きいものとは言えず、むしろ小さいため、タッ
チパネルの操作だからといっても、その操作性が優れているとは言えなかった。
Since the touch panel can be operated simply by touching the display screen with a finger, it is possible to realize a very easy-to-use human interface. However, the conventional state is not sufficient, and further improvement is desired. .
In particular, the display screens used in navigation systems are not very large compared to the display screens used in information devices such as personal computers. Was not good.

また、ナビゲーションシステムの操作については、車両走行中に操作することや、また
信号待ちなどの一寸した合間に操作することが考えられるので、各使用者それぞれに適し
た設定となっていることも操作性向上の重要な要素となる。
In addition, the navigation system can be operated while the vehicle is running, or it can be operated in a short interval such as waiting for a signal. It is an important factor for improving the performance.

課題を解決するための手段及びその効果Means for solving the problems and their effects

本発明は上記課題に鑑みなされたものであって、地図などの画像の表示を、使用者の意
思通りに柔軟にかつ容易に操作することのできる表示装置を提供することを目的としてい
る。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a display device capable of operating a display of an image such as a map flexibly and easily as a user intends.

上記目的を達成するために本発明に係る表示装置(1)は、画像を表示する画面と、該
画面に対する接触を検出し、画像に対する操作を行う操作手段と、接触状態での接触点の
移動方向に合わせて、画像をスクロール表示させる表示制御手段とを備えていることを特
徴としている。
In order to achieve the above object, a display device (1) according to the present invention includes a screen for displaying an image, operation means for detecting contact with the screen and performing an operation on the image, and movement of the contact point in the contact state. Display control means for scrolling and displaying images according to the direction is provided.

上記表示装置(1)によれば、前記画面に接触する接触点の移動方向に合わせて、画像
がスクロール表示される。例えば、前記画面に触れた指を直線移動させるといった簡単な
操作で、画像をスクロール表示させることができる。従って、使用者に使い勝手の良い、
画像操作の可能な装置を実現することができる。
According to the display device (1), the image is scroll-displayed in accordance with the moving direction of the contact point that contacts the screen. For example, the image can be scrolled and displayed by a simple operation such as moving a finger touching the screen in a straight line. Therefore, user-friendly
An apparatus capable of image manipulation can be realized.

また、本発明に係る表示装置(2)は、地図を表示する画面と、該画面に対する接触を
検出し、地図に対する操作を行う操作手段と、接触状態での接触点の移動方向に合わせて
、地図をスクロール表示させる表示制御手段とを備えていることを特徴としている。
The display device (2) according to the present invention includes a screen for displaying a map, an operation means for detecting contact with the screen and performing an operation on the map, and a moving direction of the contact point in the contact state. The display control means for scrolling the map is provided.

上記表示装置(2)によれば、前記画面に接触する接触点の移動方向に合わせて、地図
がスクロール表示される。例えば、前記画面に触れた指を直線移動させるといった簡単な
操作で、地図をスクロール表示させることができる。従って、使用者に使い勝手の良い、
地図操作の可能な装置を実現することができる。
According to the said display apparatus (2), a map is scroll-displayed according to the moving direction of the contact point which contacts the said screen. For example, the map can be scrolled and displayed by a simple operation such as moving a finger touching the screen in a straight line. Therefore, user-friendly
A device capable of map operation can be realized.

また、本発明に係る表示装置(3)は、画像を表示する画面と、該画面に対する接触を
検出し、画像に対する操作を行う操作手段と、前記画面に対して円を描くように接触して
操作されると、該操作に応じた縮尺の画像を表示させる表示制御手段とを備えていること
を特徴としている。
Further, the display device (3) according to the present invention includes a screen for displaying an image, an operation means for detecting a contact with the screen and performing an operation on the image, and a contact with the screen so as to draw a circle. A display control means for displaying an image of a scale corresponding to the operation when operated is provided.

上記表示装置(3)によれば、前記画面に対して円を描くように接触して操作されると
、該操作に応じた縮尺の画像が表示される。例えば、前記画面に触れた指で時計回りに円
が描かれると、拡大した画像を表示し、反時計回りに円が描かれると、縮小した画像を表
示することができる。従って、使用者に使い勝手の良い、画像の拡大や縮小の可能な装置
を実現することができる。
According to the display device (3), when operated in contact with the screen so as to draw a circle, an image of a scale corresponding to the operation is displayed. For example, when a circle is drawn clockwise with a finger touching the screen, an enlarged image can be displayed, and when a circle is drawn counterclockwise, a reduced image can be displayed. Therefore, an apparatus capable of enlarging or reducing an image that is easy for the user to use can be realized.

また、本発明に係る表示装置(4)は、地図を表示する画面と、該画面に対する接触を
検出し、地図に対する操作を行う操作手段と、前記画面に対して円を描くように接触して
操作されると、該操作に応じた縮尺の地図を表示させる表示制御手段とを備えていること
を特徴としている。
Further, the display device (4) according to the present invention comprises a screen for displaying a map, an operation means for detecting a contact with the screen and performing an operation on the map, and a contact with the screen so as to draw a circle. A display control means for displaying a map of a scale corresponding to the operation when operated is provided.

上記表示装置(4)によれば、前記画面に対して円を描くように接触して操作されると
、該操作に応じた縮尺の地図が表示される。例えば、前記画面に触れた指で時計回りに円
が描かれると、拡大した地図を表示し、反時計回りに円が描かれると、縮小した地図を表
示することができる。従って、使用者に使い勝手の良い、地図の拡大や縮小の可能な装置
を実現することができる。
According to the display device (4), when operated in contact with the screen so as to draw a circle, a scale map corresponding to the operation is displayed. For example, when a circle is drawn clockwise with a finger touching the screen, an enlarged map can be displayed, and when a circle is drawn counterclockwise, a reduced map can be displayed. Therefore, it is possible to realize a device that is easy for the user and that can enlarge or reduce the map.

また、本発明に係る表示装置(5)は、地図を表示する画面と、該画面に対する接触を
検出し、地図に対する操作を行う操作手段とを備え、該操作手段は、前記地図のスクロー
ル表示を指示する第1の入力指示と、接触状態での回転操作の回転する方向に応じて、前
記地図の縮尺を大きく又は小さくさせる第2の入力指示とが可能であることを特徴として
いる。
The display device (5) according to the present invention comprises a screen for displaying a map, and an operation means for detecting a contact with the screen and performing an operation on the map. The operation means displays a scroll display of the map. A first input instruction to be instructed and a second input instruction to increase or decrease the scale of the map according to the rotating direction of the rotation operation in the contact state are possible.

上記表示装置(5)によれば、前記画面に対する接触によって、地図のスクロール表示
を指示したり、地図の拡大や縮小を指示することができる。例えば、前記画面に触れた指
を直線移動させるといった操作で、地図のスクロール表示を指示したり、前記画面に触れ
た指で円を描くといった操作で、地図の拡大や縮小を指示することができる。従って、使
用者に使い勝手の良い、地図操作の可能な装置を実現することができる。
According to the display device (5), it is possible to instruct the scroll display of the map or to instruct the enlargement or reduction of the map by touching the screen. For example, it is possible to instruct to enlarge or reduce the map by an operation such as moving the finger touching the screen in a straight line to instruct scroll display of the map or drawing a circle with the finger touching the screen. . Therefore, it is possible to realize a map-operable device that is convenient for the user.

また、本発明に係る表示装置(6)は、画像を表示する画面と、該画面に対する接触を
検出し、画像に対する操作を行う操作手段とを備え、該操作手段は、前記画像のスクロー
ル表示を指示する第1の入力指示と、接触状態での回転操作の回転する方向に応じて、前
記画像の縮尺を大きく又は小さくさせる第2の入力指示とが可能であることを特徴として
いる。
The display device (6) according to the present invention includes a screen for displaying an image, and an operation unit that detects a contact with the screen and performs an operation on the image. The operation unit displays a scroll display of the image. A first input instruction to be instructed and a second input instruction to increase or decrease the scale of the image according to the rotating direction of the rotation operation in the contact state are possible.

上記表示装置(6)によれば、前記画面に対する接触によって、画像のスクロール表示
を指示したり、画像の拡大や縮小を指示することができる。例えば、前記画面に触れた指
を直線移動させるといった操作で、画像のスクロール表示を指示したり、前記画面に触れ
た指で円を描くといった操作で、画像の拡大や縮小を指示することができる。従って、使
用者に使い勝手の良い、画像操作の可能な装置を実現することができる。
According to the display device (6), it is possible to instruct scroll display of an image or instruct to enlarge or reduce the image by touching the screen. For example, it is possible to instruct to enlarge or reduce an image by instructing scroll display of an image by an operation of moving a finger touching the screen in a straight line or by drawing a circle with a finger touching the screen. . Accordingly, it is possible to realize an image-manipulating apparatus that is easy to use for the user.

以下、本発明に係る表示装置の実施の形態を図面に基づいて説明する。図1は、実施の
形態(1)に係る表示装置を採用したナビゲーションシステムの要部を概略的に示したブ
ロック図である。
Hereinafter, embodiments of a display device according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram schematically showing a main part of a navigation system employing the display device according to the embodiment (1).

車速から演算して走行距離を取得するための車速センサ2と、進行方向を取得するため
のジャイロセンサ3とがマイコン1に接続されており、マイコン1は、演算した走行距離
、及び進行方向に基づいて自車位置を割り出すようになっている(自律航法)。
A vehicle speed sensor 2 for calculating the travel distance by calculating from the vehicle speed and a gyro sensor 3 for acquiring the traveling direction are connected to the microcomputer 1, and the microcomputer 1 determines the calculated traveling distance and the traveling direction. Based on this, the vehicle position is determined (autonomous navigation).

GPS受信機4は、アンテナ5を介して衛星からのGPS信号を受信するものであり、
マイコン1に接続されており、マイコン1は、GPS信号に基づいて自車位置を割り出す
ようになっている(GPS航法)。
The GPS receiver 4 receives a GPS signal from a satellite via the antenna 5,
The microcomputer 1 is connected to the microcomputer 1, and the microcomputer 1 determines the position of the vehicle based on the GPS signal (GPS navigation).

また、道路データ等が記憶されたDVD−ROM7(CD−ROMなどの大容量記憶装
置も可能)から道路データ等を取り込むことのできるDVDドライブ6がマイコン1に接
続されており、マイコン1は、割り出した自車位置と道路データとを合わせる(いわゆる
、マップマッチング処理を行う)ことによって、自車位置が正確に示された地図を表示画
面9b上へ表示するようになっている。
Further, a DVD drive 6 capable of fetching road data from a DVD-ROM 7 (which can be a large-capacity storage device such as a CD-ROM) in which road data is stored is connected to the microcomputer 1. By matching the determined vehicle position and road data (so-called map matching processing), a map showing the vehicle position accurately is displayed on the display screen 9b.

また、リモコン8に設けられたジョイスティック8aやボタンスイッチ8bから出力さ
れたスイッチ信号や、表示装置9に設けられたボタンスイッチ9aから出力されたスイッ
チ信号がマイコン1に入力され、これらスイッチ信号に応じた処理がマイコン1で行われ
るようになっている。例えば、マイコン1は、これらスイッチから移動目的地の情報を取
り込むと、自車位置から目的地までの最適ルートを探索し、これを誘導ルートとして地図
と共に表示画面9b上に表示するようになっている。
In addition, a switch signal output from the joystick 8a or the button switch 8b provided on the remote controller 8 or a switch signal output from the button switch 9a provided on the display device 9 is input to the microcomputer 1 in accordance with these switch signals. The processing is performed by the microcomputer 1. For example, when the microcomputer 1 takes in the information of the moving destination from these switches, the microcomputer 1 searches for the optimum route from the vehicle position to the destination, and displays this as a guidance route on the display screen 9b together with the map. Yes.

このようにナビゲーション装置では、表示画面9bに地図が表示され、その地図上に使
用者により入力された目的地、該目的地までのルート、自車の現在位置に対応する自車位
置マーク、及びそれまでの自車の走行軌跡等が重ねて表示されるようになっており、使用
者は、この表示画面9bを逐次参照することで、進路情報を得ることができ、その進路情
報に従うことで目的地に到達することができるようになっている。
In this way, in the navigation device, the map is displayed on the display screen 9b, the destination input by the user on the map, the route to the destination, the vehicle position mark corresponding to the current position of the vehicle, and The traveling track of the vehicle until then is displayed in a superimposed manner, and the user can obtain the route information by sequentially referring to this display screen 9b, and by following the route information You can reach your destination.

図中10は、表示画面9bへの物理的な接触を検出する接触検出手段10を示しており
、接触検出手段10は、使用者が地図画像などの画像の拡大や縮小、回転、スクロールな
どの操作を入力するために、画像が表示された表示画面9b上に接触させた指などを検出
するためのものであり、表示画面9bに透明なタッチパネルなどが積層されて構成されて
いる。また、接触検出手段10で検出されたデータについては、マイコン1に入力される
ようになっている。
In the figure, reference numeral 10 denotes a contact detection means 10 for detecting physical contact with the display screen 9b. The contact detection means 10 is used when the user enlarges or reduces an image such as a map image, rotates, scrolls, etc. This is for detecting a finger or the like touched on the display screen 9b on which an image is displayed in order to input an operation, and is configured by laminating a transparent touch panel or the like on the display screen 9b. Further, the data detected by the contact detection means 10 is input to the microcomputer 1.

また、実施の形態(1)に係る表示装置を採用したナビゲーションシステムでは、表示
画面9b上に表示された画面を通じて、使用者が各種設定を行うことができ、図2に示し
たような『拡大・縮小の設定』画面を通じて、地図画像が表示された表示画面9bに接触
させた2本の指を遠ざける動作をしたときに、画像を拡大させるか、又は縮小させるか、
他方、2本の指を近づける動作をしたときに、画像を縮小させるか、又は拡大させるかと
いった設定や、図3に示したような『固定点の設定(拡大・縮小)』画面を通じて、画像
を拡大したり、縮小したりするときの固定点を下記1〜4のいずれにするかといった設定
を行うことができるようになっている。
Further, in the navigation system employing the display device according to the embodiment (1), the user can make various settings through the screen displayed on the display screen 9b. As shown in FIG.・ When the operation of moving the two fingers in contact with the display screen 9b on which the map image is displayed through the “setting for reduction” screen, the image is enlarged or reduced,
On the other hand, the image is reduced through the setting of whether to reduce or enlarge the image when two fingers are brought close to each other, and the “fixed point setting (enlargement / reduction)” screen as shown in FIG. It is possible to set whether the fixed point when enlarging or reducing is set to any one of the following 1 to 4.

1 「画像の中心点」
画像の中心点とは、図4(a)に示したように、画像が表示画面9bの画面一杯に表示
されている場合には、表示画面9bの中心点aと同じとなり、図4(b)に示したように
、画像が表示画面9b一杯に表示されていない場合には点bとなる。
2 「自車位置マークの表示地点」
自車位置マークの表示地点とは、図4(a)、図4(b)に示したように、黒三角で表
されている自車位置マークMが表示されている地点である。
1 “Center of image”
As shown in FIG. 4A, the center point of the image is the same as the center point a of the display screen 9b when the image is displayed on the full screen of the display screen 9b. As shown in (), the point b is obtained when the image is not fully displayed on the display screen 9b.
2 "Vehicle position mark display point"
The display point of the own vehicle position mark is a point where the own vehicle position mark M represented by a black triangle is displayed as shown in FIGS. 4 (a) and 4 (b).

3.1 「左端」
2本の指を表示画面9bに最初に接触させた点(すなわち、移動開始前の接触点)のう
ち、表示画面9bの左端に最も近い点であり、例えば、図5に示したように、右手の親指
と人差し指とを使って操作する場合には、親指で触れた点cが固定点となる。
3.2 「右端」
2本の指を表示画面9bに最初に接触させた点のうち、表示画面9bの右端に最も近い
点であり、例えば、図5に示したように、右手の親指と人差し指とを使って操作する場合
には、人差し指で触れた点dが固定点となる。
3.3 「上端」
2本の指を表示画面9bに最初に接触させた点のうち、表示画面9bの右端に最も近い
点であり、例えば、図5に示したように、右手の親指と人差し指とを使って操作する場合
には、人差し指で触れた点dが固定点となる。
3.4 「下端」
2本の指を表示画面9bに最初に接触させた点のうち、表示画面9bの右端に最も近い
点であり、例えば、図5に示したように、右手の親指と人差し指とを使って操作する場合
には、親指で触れた点cが固定点となる。
3.1 “Left end”
Of the points where two fingers are first brought into contact with the display screen 9b (that is, the contact points before the start of movement), this is the point closest to the left end of the display screen 9b. For example, as shown in FIG. When an operation is performed using the thumb and index finger of the right hand, the point c touched by the thumb is a fixed point.
3.2 “Right end”
Among points where two fingers are first brought into contact with the display screen 9b, the point closest to the right end of the display screen 9b is operated using, for example, the thumb and index finger of the right hand as shown in FIG. In this case, the point d touched with the index finger becomes a fixed point.
3.3 “Top”
Among points where two fingers are first brought into contact with the display screen 9b, the point closest to the right end of the display screen 9b is operated using, for example, the thumb and index finger of the right hand as shown in FIG. In this case, the point d touched with the index finger becomes a fixed point.
3.4 “Bottom”
Among points where two fingers are first brought into contact with the display screen 9b, the point closest to the right end of the display screen 9b is operated using, for example, the thumb and index finger of the right hand as shown in FIG. In this case, the point c touched by the thumb becomes a fixed point.

4 「2点の中間点」
2本の指を表示画面9bに最初に接触させた点の中間点であり、例えば、図5に示した
ように、右手の親指と人差し指とを使って操作する場合には、親指での接触点と人差し指
での接触点とを結ぶ線分の中間点eが固定点となる。
4 “Midpoint between two points”
This is an intermediate point between the points where two fingers first contact the display screen 9b. For example, as shown in FIG. 5, when operating with the thumb and index finger of the right hand, the contact with the thumb The middle point e of the line segment connecting the point and the contact point with the index finger is a fixed point.

また、図6に示したような『固定点の設定(回転移動)』画面を通じて、画像を回転移
動させるとき(すなわち、画像の表示の向きを変えるとき)の固定点を下記1〜3のいず
れにするかといった設定を行うことができるようになっている。
Further, through the “fixed point setting (rotational movement)” screen as shown in FIG. 6, the fixed point when rotating the image (that is, when changing the display direction of the image) is set to any of the following 1-3. You can make settings such as

1 「画像の中心点」(図4参照)
2 「自車位置マークの表示地点」(図4参照)
3 「回転軸」
回転軸として、表示画面9bに接触させた地点であり、例えば、図7(a)、(b)に
示したように、右手の親指と人差し指とを使い、親指を回転軸として、人差し指を回転移
動(点g→点g’)させる場合には、親指での接触点fが固定点となる。
1 “Image center point” (see Figure 4)
2 “Vehicle position mark display point” (see Figure 4)
3 “Rotating shaft”
The point of contact with the display screen 9b as the rotation axis. For example, as shown in FIGS. 7A and 7B, the thumb and index finger of the right hand are used, and the index finger is rotated around the thumb as the rotation axis. When moving (point g → point g ′), the contact point f with the thumb becomes a fixed point.

次に、実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおけるマ
イコン1の行う処理動作〈1〉を図8〜図10に示したフローチャートに基づいて説明す
る。
まず、タッチパネルへの物理的な接触があったか否か、すなわち、タッチパネルへの指
の接触があったか否かを判断し(ステップS1)、タッチパネルへの指の接触がないと判
断すれば、処理動作〈1〉を終了する。一方、タッチパネルへの指の接触があったと判断
すれば、タイマtを起動させる(ステップS2)。
Next, the processing operation <1> performed by the microcomputer 1 in the navigation system employing the display device according to the embodiment (1) will be described based on the flowcharts shown in FIGS.
First, it is determined whether or not there has been physical contact with the touch panel, that is, whether or not there has been finger contact with the touch panel (step S1). 1> is terminated. On the other hand, if it is determined that a finger touches the touch panel, the timer t is started (step S2).

次にタイマtの起動後、タッチパネルへの接触箇所が2以上あるか否かを判断し(ステ
ップS3)、接触箇所が2以上ない、すなわち1箇所だけであると判断すれば、接触点が
移動しているか否かを判断し(ステップS4)、接触点が移動している(すなわち、表示
画面9b上で指を動かしている)と判断すれば、前記移動が直線移動であるか否か(すな
わち、指の動作が直線動作であるか否か)を判断し(ステップS5)、前記移動が直線移
動である(図11参照)と判断すれば、その移動方向に合わせて、表示画面9bに表示さ
れている画像に対してスクロール処理を施す(ステップS6)。
Next, after the timer t is started, it is determined whether or not there are two or more touch points on the touch panel (step S3). If it is determined that there are two or more touch points, that is, only one point, the touch point moves. If it is determined whether or not the contact point is moving (that is, the finger is moved on the display screen 9b), whether or not the movement is a linear movement ( That is, it is determined whether or not the movement of the finger is a linear movement (step S5), and if it is determined that the movement is a linear movement (see FIG. 11), the display screen 9b is displayed in accordance with the movement direction. A scroll process is performed on the displayed image (step S6).

一方、ステップS5における判断処理で、前記移動が直線移動でないと判断すれば、前
記移動が回転移動であるか否か(すなわち、指の動作が回転動作であるか否か)を判断し
(ステップS7)、前記移動が回転移動である(図12参照)と判断すれば、回転方向が
時計回りであるか否かを判断し(ステップS8)、回転方向が時計回りであると判断すれ
ば、表示画面9bに表示されている画像に対して拡大処理を施し(ステップS9)、回転
方向が反時計回りであると判断すれば、表示画面9bに表示されている画像に対して縮小
処理を施す(ステップS10)。一方、ステップS7における判断処理で、前記移動が回
転移動でないと判断すれば、そのまま処理動作〈1〉を終了する。
On the other hand, if it is determined in step S5 that the movement is not a linear movement, it is determined whether or not the movement is a rotational movement (that is, whether or not the finger movement is a rotation movement) (step S5). S7) If it is determined that the movement is a rotational movement (see FIG. 12), it is determined whether the rotation direction is clockwise (step S8), and if it is determined that the rotation direction is clockwise, An enlargement process is performed on the image displayed on the display screen 9b (step S9), and if it is determined that the rotation direction is counterclockwise, a reduction process is performed on the image displayed on the display screen 9b. (Step S10). On the other hand, if it is determined in the determination process in step S7 that the movement is not a rotational movement, the processing operation <1> is terminated as it is.

また、ステップS4における判断処理で、接触点が移動していない(すなわち、表示画
面9上で指を動かしていない)と判断すれば、タッチパネルへの接触がなくなったか否か
、すなわち、タッチパネル9bに接触していた指がタッチパネル9bから離れたか否かを
判断し(ステップS11)、タッチパネルから指が離れたと判断すれば、略同一点でのタ
ッチパネルへの再接触があったか否かを判断する(ステップS12)。
If it is determined in the determination process in step S4 that the contact point has not moved (that is, the finger is not moved on the display screen 9), whether or not the touch to the touch panel is lost, that is, the touch panel 9b is displayed. It is determined whether or not the touched finger has been released from the touch panel 9b (step S11). If it is determined that the finger has been released from the touch panel, it is determined whether or not there has been re-contact with the touch panel at substantially the same point (step S11). S12).

タッチパネルへの再接触がないと判断すれば、タイマtが所定時間t1(例えば、1秒
)経過しているか否かを判断し(ステップS13)、タイマtが所定時間t1経過してい
る(すなわち、所定時間t1内での接触回数が1回)と判断すれば、表示画面9bに表示
されている画像に対して縮小処理を施す(ステップS14)。一方、タイマtが所定時間
1経過していないと判断すれば、ステップS12へ戻る。
If it is determined that there is no re-contact with the touch panel, it is determined whether or not the timer t has elapsed a predetermined time t 1 (for example, 1 second) (step S13), and the timer t has elapsed the predetermined time t 1 . If it is determined that the number of times of contact within the predetermined time t 1 is one, reduction processing is performed on the image displayed on the display screen 9b (step S14). On the other hand, if the timer t determines that the predetermined time t 1 has not elapsed, the process returns to step S12.

一方、ステップS12における判断処理で、タッチパネルへの物理的な再接触があった
、すなわち、所定時間t1内に2回接触があった(使用者がタッチパネルへ連続的にタッ
チした)と判断すれば、表示画面9bに表示されている画像に対して拡大処理を施す(ス
テップS15)。
On the other hand, in the determination processing in step S12, there is a physical re-contact to the touch panel, i.e., it is judged that there is a contact twice in a predetermined time t 1 (user was continuously touching the touch panel) For example, the image displayed on the display screen 9b is enlarged (step S15).

また、ステップS11における判断処理で、タッチパネルから指が離れていないと判断
すれば、タイマtが所定時間t1経過しているか否かを判断し(ステップS16)、タイ
マtが所定時間t1経過していると判断すれば、表示画面9bに表示されている画像に対
して縮小処理を施し(ステップS14)、一方、タイマtが所定時間t1経過していない
と判断すれば、ステップS11へ戻る。
Further, in the determination process in step S11, it is judged that the finger from the touch panel is not separated, the timer t is determined whether the predetermined time t 1 has elapsed (step S16), and the timer t is the predetermined time t 1 has elapsed if to have a judgment, subjected to reduction processing for the image displayed on the display screen 9b (step S14), and on the other hand, when it is judged that the timer t is not the predetermined time t 1 has elapsed, the step S11 Return.

ところで、ステップS3における判断処理で、タッチパネルへの接触箇所が2以上ある
(すなわち、タッチパネルへ2本の指が接触している)と判断すれば、2点間の距離の変
化を算出し(ステップS21)、2点間の距離が長くなっているか否かを判断し(ステッ
プS22)、2点間の距離が長くなっている(すなわち、使用者によって2本の指を遠ざ
ける動作が行われている)と判断すれば、『固定点の設定(拡大・縮小)』画面(図3参
照)を通じて設定された内容に基づいて、拡大処理、又は縮小処理(後のステップS24
における処理)を施すにあたっての固定点を算出する(ステップS23)。
By the way, if it is determined in step S3 that there are two or more touch points on the touch panel (that is, two fingers are touching the touch panel), a change in distance between the two points is calculated (step S21) It is determined whether or not the distance between the two points is long (step S22). The distance between the two points is long (that is, the user performs an operation of moving two fingers away). If it is determined, the enlargement process or the reduction process (later step S24) based on the content set through the “fixed point setting (enlargement / reduction)” screen (see FIG. 3).
In step S23, a fixed point is calculated when performing the processing in step S23.

次に、『拡大・縮小の設定』画面(図2参照)を通じて設定された内容に基づいて、表
示画面9bに表示されている画像に対して、拡大処理、又は縮小処理を施す(ステップS
24)。なお、このときステップS23で算出した固定点を固定するようにして画像処理
を施す。
Next, an enlargement process or a reduction process is performed on the image displayed on the display screen 9b based on the contents set through the “enlargement / reduction setting” screen (see FIG. 2) (step S).
24). At this time, image processing is performed so as to fix the fixed point calculated in step S23.

一方、ステップS22における判断処理で、2点間の距離が長くなっていないと判断す
れば、次に2点間の距離が短くなっているか否かを判断し(ステップS25)、2点間の
距離が短くなっている(すなわち、使用者によって2本の指を近づける動作が行われてい
る)と判断すれば、『固定点の設定(拡大・縮小)』画面(図3参照)を通じて設定され
た内容に基づいて、拡大処理、又は縮小処理(後のステップS27における処理)を施す
にあたっての固定点を算出する(ステップS26)。
On the other hand, if it is determined in step S22 that the distance between the two points is not long, it is next determined whether or not the distance between the two points is short (step S25). If it is determined that the distance is short (ie, the user is moving two fingers closer), the setting is made through the “fixed point setting (enlargement / reduction)” screen (see FIG. 3). Based on the contents, a fixed point for performing the enlargement process or the reduction process (the process in the subsequent step S27) is calculated (step S26).

次に、『拡大・縮小の設定』画面(図2参照)を通じて設定された内容に基づいて、表
示画面9bに表示されている画像に対して、拡大処理、又は縮小処理を施す(ステップS
27)。なお、このときステップS26で算出した固定点を固定するようにして画像処理
を施す。
Next, an enlargement process or a reduction process is performed on the image displayed on the display screen 9b based on the contents set through the “enlargement / reduction setting” screen (see FIG. 2) (step S).
27). At this time, image processing is performed so as to fix the fixed point calculated in step S26.

ステップS25における判断処理で、2点間の距離が短くなっていないと判断すれば、
次に一方の接触点を回転軸として、他方の接触点が回転移動しているか否かを判断し(ス
テップS28)、回転移動していると判断すれば、『固定点の設定(回転移動)』画面(
図6参照)を通じて設定された内容に基づいて、回転処理(後のステップS30における
処理)を施すにあたっての固定点を算出する(ステップS29)。次に、算出した固定点
を固定するようにして、回転移動の向きに合わせて、表示画面9bに表示されている画像
の向きを変える処理を施す(ステップS30)。
If it is determined in step S25 that the distance between the two points is not shortened,
Next, it is determined whether or not the other contact point is rotationally moved with one contact point as the rotation axis (step S28), and if it is determined that it is rotationally moved, “setting of fixed point (rotational movement)” "screen(
Based on the contents set through FIG. 6), a fixed point for performing the rotation process (the process in the subsequent step S30) is calculated (step S29). Next, a process of changing the orientation of the image displayed on the display screen 9b according to the direction of the rotational movement is performed so as to fix the calculated fixed point (step S30).

上記実施の形態(1)に係る表示装置を採用したナビゲーションシステムでは、指一本
での時計回りの回転動作が検出されると、拡大処理を施し(ステップS9参照)、逆に反
時計回りの回転動作が検出されると、縮小処理を施す(ステップS10)ようになってい
るが、別の実施の形態では、時計回りの回転動作が検出されると、縮小処理を施し、反時
計回りの回転動作が検出されると、拡大処理を施すようにしても良い。
さらに、別の実施の形態に係る表示装置では、図13に示したような画面を通じて、こ
れら処理を使用者が自由に選択できるようにし、マイコン1が前記画面を通じて拡大処理
や縮小処理を行うようにしても良い。
In the navigation system that employs the display device according to the above embodiment (1), when a clockwise rotation operation with one finger is detected, an enlargement process is performed (see step S9). When a rotation operation is detected, a reduction process is performed (step S10). However, in another embodiment, when a clockwise rotation operation is detected, a reduction process is performed and a counterclockwise rotation is performed. When a rotation operation is detected, an enlargement process may be performed.
Further, in the display device according to another embodiment, the user can freely select these processes through the screen as shown in FIG. 13, and the microcomputer 1 performs the enlargement process and the reduction process through the screen. Anyway.

また、上記実施の形態(1)に係る表示装置を採用したナビゲーションシステムでは、
指一本での1タッチ動作が検出されると、縮小処理を施し(ステップS14参照)、指一
本での連続タッチ動作が検出されると、拡大処理を施す(ステップS15参照)ようにな
っているが、別の実施の形態では、1タッチ動作が検出されると、拡大処理を施し、連続
タッチ動作が検出されると、縮小処理を施すようにしても良い。
さらに、別の実施の形態に係る表示装置では、図14に示したような画面を通じて、こ
れら処理を使用者が自由に選択できるようにし、マイコン1が前記画面を通じて拡大処理
や縮小処理を行うようにしても良い。
In the navigation system employing the display device according to the embodiment (1),
When one touch operation with one finger is detected, a reduction process is performed (see step S14), and when a continuous touch operation with one finger is detected, an enlargement process is performed (see step S15). However, in another embodiment, an enlargement process may be performed when one touch operation is detected, and a reduction process may be performed when a continuous touch operation is detected.
Further, in the display device according to another embodiment, the user can freely select these processes through the screen as shown in FIG. 14, and the microcomputer 1 performs the enlargement process and the reduction process through the screen. Anyway.

また、上記実施の形態(1)に係る表示装置を採用したナビゲーションシステムでは、
2本の指を遠ざける動作や、近づける動作が検出されると、拡大処理や縮小処理(ステッ
プS24、S27参照)を施すようになっているが、別の実施の形態では、2本の指に限
定せず、例えば、3本の指を遠ざける動作や、近づける動作が検出されると、拡大処理や
縮小処理を施すようにしても良い。
In the navigation system employing the display device according to the embodiment (1),
When an operation of moving two fingers away or an operation of moving them closer is detected, enlargement processing and reduction processing (see steps S24 and S27) are performed. In another embodiment, two fingers are applied. For example, when an operation of moving three fingers away or an operation of moving them closer is detected, enlargement processing or reduction processing may be performed.

なお、3本の指が遠ざかっている(又は近づいている)か否かの判断方法としては、例
えば、3箇所の接触点から構成される3角形の重心を求めて、その重心から遠ざかる(又
は近づく)方向へ指が動いているか否かを判断する方法が挙げられる。
In addition, as a method for determining whether or not three fingers are moving away (or approaching), for example, the center of gravity of a triangle composed of three contact points is obtained and moved away from the center of gravity (or There is a method for determining whether or not the finger is moving in the direction of approaching.

次に、実施の形態(2)に係る表示装置を採用したナビゲーションシステムについて説
明する。但し、実施の形態(2)に係る表示装置を採用したナビゲーション装置の構成に
ついては、マイコン1を除いて、図1に示したナビゲーションシステムの構成と同様であ
るため、マイコンには異なる符号を付し、その他の説明をここでは省略する。
Next, a navigation system that employs the display device according to the embodiment (2) will be described. However, the configuration of the navigation device employing the display device according to the embodiment (2) is the same as the configuration of the navigation system shown in FIG. Other explanations are omitted here.

実施の形態(2)に係る表示装置を採用したナビゲーションシステムにおけるマイコン
1Aの行う処理動作〈2〉を図15に示したフローチャートに基づいて説明する。
まず、リモコン8などを操作することによって、ナビゲーションシステムが誘導ルート
の設定モードになっているか否かを判断し(ステップS31)、誘導ルートの設定モード
になっていないと判断すれば、処理動作〈2〉を終了し、誘導ルートの設定モードになっ
ていると判断すれば、タッチパネルへの物理的な接触があったか否か、すなわち、タッチ
パネルへの指の接触があったか否かを判断する(ステップS32)。
The processing operation <2> performed by the microcomputer 1A in the navigation system employing the display device according to the embodiment (2) will be described based on the flowchart shown in FIG.
First, by operating the remote controller 8 or the like, it is determined whether or not the navigation system is in the guidance route setting mode (step S31). If it is determined that the navigation route is not in the guidance route setting mode, the processing operation < If it is determined that the guidance route setting mode is set, it is determined whether or not there is a physical contact with the touch panel, that is, whether or not a finger touches the touch panel (step S32). ).

タッチパネルへの指の接触がないと判断すれば、処理動作〈2〉を終了し、タッチパネ
ルへの指の接触があったと判断すれば、タイマtを起動させる(ステップS33)。タイ
マtの起動後、タッチパネルへの接触がなくなったか否か、すなわち、タッチパネルに接
触していた指がタッチパネルから離れたか否かを判断し(ステップS34)、タッチパネ
ルから指が離れたと判断すれば、略同一地点でのタッチパネルへの再接触があったか否か
を判断する(ステップS35)。
If it is determined that there is no finger contact with the touch panel, the processing operation <2> is terminated, and if it is determined that there is a finger contact with the touch panel, a timer t is started (step S33). After the timer t is started, it is determined whether or not the touch on the touch panel has been lost, that is, whether or not the finger touching the touch panel has been released from the touch panel (step S34). It is determined whether or not there has been re-contact with the touch panel at substantially the same point (step S35).

タッチパネルへの再接触がないと判断すれば、タイマtが所定時間t2(例えば、1秒
)経過しているか否かを判断し(ステップS36)、タイマtが所定時間t2経過してい
る(すなわち、所定時間t2内での接触回数が1回)と判断すれば、そのまま処理動作〈
2〉を終了する。一方、タイマtが所定時間t2経過していないと判断すれば、ステップ
S35へ戻る。
If it is determined that there is no re-contact with the touch panel, it is determined whether or not the timer t has elapsed a predetermined time t 2 (eg, 1 second) (step S36), and the timer t has elapsed the predetermined time t 2 . If it is determined (that is, the number of times of contact within the predetermined time t 2 is one), the processing operation <
2> is ended. On the other hand, if the timer t determines that the predetermined time t 2 has not elapsed, the process returns to step S35.

一方、ステップS35における判断処理で、タッチパネルへの物理的な再接触があった
、すなわち、所定時間t2内に2回接触があった(使用者がタッチパネルへ連続的にタッ
チした)と判断すれば、接触点に対応する、表示画面9bに表示されている地図画像の地
点を誘導ルートを算出するにあたっての目的地に設定する(ステップS37)。
On the other hand, in the determination processing in step S35, there is a physical re-contact to the touch panel, i.e., it is judged that there is a contact twice in a predetermined time t in 2 (user was continuously touching the touch panel) For example, the point of the map image displayed on the display screen 9b corresponding to the contact point is set as the destination for calculating the guidance route (step S37).

また、ステップS34における判断処理で、タッチパネルから指が離れていないと判断
すれば、タイマtが所定時間t3(例えば、1秒)経過しているか否かを判断し(ステッ
プS38)、タイマtが所定時間t3経過している、すなわち、タッチパネルが長く押さ
れていると判断すれば、接触点に対応する、表示画面9bに表示されている地図画像の地
点を誘導ルートを算出するにあたっての中継地に設定する(ステップS39)。一方、タ
イマtが所定時間t3経過していないと判断すれば、ステップS34へ戻る。
Further, in the determination process in step S34, if it is determined that no remote finger from the touch panel, the timer t is determined whether predetermined time has elapsed t 3 (e.g., 1 second) (step S38) and the timer t If the predetermined time t 3 has elapsed, that is, it is determined that the touch panel has been pressed for a long time, the map route corresponding to the contact point on the map image displayed on the display screen 9b is calculated in calculating the guidance route. A relay point is set (step S39). On the other hand, if the timer t determines that the predetermined time t 3 has not elapsed, the process returns to step S34.

また、上記実施の形態(2)に係る表示装置を採用したナビゲーションシステムでは、
指一本での連続タッチ動作が検出されると、目的地を設定し(ステップS37参照)、長
押し動作が検出されると、中継地を設定する(ステップS39参照)ようになっているが
、別の実施の形態では、連続タッチ動作が検出されると、中継地を設定し、長押し動作が
検出されると、目的地を設定するようにしても良い。
さらに、別の実施の形態に係る表示装置では、図16に示したような画面を通じて、こ
れら処理を使用者が自由に選択できるようにし、マイコン1が前記画面を通じて拡大処理
や縮小処理を行うようにしても良い。
In the navigation system employing the display device according to the embodiment (2),
When a continuous touch operation with one finger is detected, a destination is set (see step S37), and when a long press operation is detected, a relay point is set (see step S39). In another embodiment, a relay point may be set when a continuous touch operation is detected, and a destination may be set when a long press operation is detected.
Further, in the display device according to another embodiment, the user can freely select these processes through the screen as shown in FIG. 16, and the microcomputer 1 performs the enlargement process and the reduction process through the screen. Anyway.

次に、実施の形態(3)に係る表示装置を採用したナビゲーションシステムについて説
明する。但し、実施の形態(3)に係る表示装置を採用したナビゲーション装置の構成に
ついては、マイコン1を除いて、図1に示したナビゲーションシステムの構成と同様であ
るため、マイコンには異なる符号を付し、その他の説明をここでは省略する。
Next, a navigation system that employs the display device according to Embodiment (3) will be described. However, the configuration of the navigation device that employs the display device according to the embodiment (3) is the same as the configuration of the navigation system shown in FIG. Other explanations are omitted here.

実施の形態(3)に係る表示装置を採用したナビゲーションシステムでは、タッチパネ
ルの操作が可能であるときに、図17(a)に示したように、タッチパネルの操作を支援
するための支援画像p(例えば、アイコン)が表示されるようになっているため、タッチ
パネルの操作がより使い易くなっている。
In the navigation system employing the display device according to the embodiment (3), when the operation of the touch panel is possible, as shown in FIG. 17A, the support image p () for supporting the operation of the touch panel. For example, an icon) is displayed, which makes the operation of the touch panel easier to use.

次に、実施の形態(3)に係る表示装置を採用したナビゲーションシステムにおけるマ
イコン1Bの行う処理動作〈3〉を図18に示したフローチャートに基づいて説明する。
まず、リモコン8による操作が行われたか否かを判断し(ステップS41)、リモコン
8による操作が行われたと判断すれば、図17(b)に示したような画面となるように、
支援画像pを画面上から消去する(ステップS42)。一方、リモコン8による操作が行
われていないと判断すれば、表示装置9に装備されているボタンスイッチ9aによる操作
が行われたか否かを判断する(ステップS43)。
Next, the processing operation <3> performed by the microcomputer 1B in the navigation system employing the display device according to the embodiment (3) will be described based on the flowchart shown in FIG.
First, it is determined whether or not an operation with the remote controller 8 has been performed (step S41). If it is determined that an operation with the remote controller 8 has been performed, a screen as shown in FIG.
The support image p is erased from the screen (step S42). On the other hand, if it is determined that the operation using the remote controller 8 is not performed, it is determined whether or not the operation using the button switch 9a provided in the display device 9 is performed (step S43).

表示装置9に装備されているボタンスイッチ9aによる操作が行われたと判断すれば、
図17(b)に示したような画面となるように、支援画像pを画面上から消去する(ステ
ップS42)。一方、表示装置9に装備されているボタンスイッチ9aによる操作が行わ
れていないと判断すれば、そのまま処理動作〈3〉を終了する。
If it is determined that the operation using the button switch 9a provided in the display device 9 has been performed,
The support image p is erased from the screen so that the screen shown in FIG. 17B is obtained (step S42). On the other hand, if it is determined that the operation by the button switch 9a provided in the display device 9 is not performed, the processing operation <3> is ended as it is.

支援画像pを表示画面9bへ表示していると、主たる画像(例えば、地図画像)を表示
するスペースが小さくなってしまうが、上記実施の形態(3)に係る表示装置を採用した
ナビゲーションシステムによれば、リモコン8による操作や、表示装置9に装備されてい
るボタンスイッチ9aによる操作が行われる場合には、支援画面pを消去するので、主た
る画像(例えば、地図画像)を見易くすることができる。
When the support image p is displayed on the display screen 9b, a space for displaying the main image (for example, a map image) is reduced. However, the navigation system adopting the display device according to the embodiment (3) is used. Therefore, when the operation by the remote controller 8 or the operation by the button switch 9a provided in the display device 9 is performed, the support screen p is deleted, so that the main image (for example, a map image) can be easily viewed. it can.

以上、実施の形態(1)〜(3)に係る表示装置においては、ナビゲーションシステム
に採用し、地図を使用者の意思通りに拡大、縮小する場合などについて説明しているが、
別の実施の形態に係る表示装置では、ナビゲーションシステム以外のものに採用するよう
にしても良く、また地図だけでなく、文字や図などの画像の制御を行うようにしても良い
As described above, in the display devices according to the embodiments (1) to (3), the case where the map is adopted in the navigation system and the map is enlarged or reduced as the user intends has been described.
A display device according to another embodiment may be adopted for devices other than the navigation system, and may control not only a map but also images such as characters and drawings.

本発明の実施の形態(1)に係る表示装置を採用したナビゲーションシステムの要部を概略的に示したブロック図である。It is the block diagram which showed roughly the principal part of the navigation system which employ | adopted the display apparatus which concerns on embodiment (1) of this invention. 実施の形態(1)に係る表示装置を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the display apparatus which concerns on embodiment (1). 実施の形態(1)に係る表示装置を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the display apparatus which concerns on embodiment (1). (a)、(b)は実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおける拡大処理、縮小処理を説明するための説明図である。(A), (b) is explanatory drawing for demonstrating the expansion process in the navigation system which employ | adopted the display apparatus which concerns on embodiment (1), and a reduction process. 実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおける拡大処理、縮小処理の操作例を説明するための説明図である。It is explanatory drawing for demonstrating the operation example of the expansion process in the navigation system which employ | adopted the display apparatus which concerns on embodiment (1), and a reduction process. 実施の形態(1)に係る表示装置を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the display apparatus which concerns on embodiment (1). (a)、(b)は実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおける拡大処理、縮小処理の操作例を説明するための説明図である。(A), (b) is explanatory drawing for demonstrating the operation example of the expansion process in the navigation system which employ | adopted the display apparatus which concerns on embodiment (1), and a reduction process. 実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the display apparatus which concerns on embodiment (1). 実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the display apparatus which concerns on embodiment (1). 実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the display apparatus which concerns on embodiment (1). 実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおけるスクロール処理の操作例を説明するための説明図である。It is explanatory drawing for demonstrating the operation example of the scroll process in the navigation system which employ | adopted the display apparatus which concerns on embodiment (1). 実施の形態(1)に係る表示装置を採用したナビゲーションシステムにおける拡大処理、縮小処理の操作例を説明するための説明図である。It is explanatory drawing for demonstrating the operation example of the expansion process in the navigation system which employ | adopted the display apparatus which concerns on embodiment (1), and a reduction process. 別の実施の形態に係る表示装置を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the display apparatus which concerns on another embodiment. 別の実施の形態に係る表示装置を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the display apparatus which concerns on another embodiment. 実施の形態(2)に係る表示装置を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the display apparatus which concerns on embodiment (2). 別の実施の形態に係る表示装置を採用したナビゲーションシステムの表示画面に表示される操作画面を示した図である。It is the figure which showed the operation screen displayed on the display screen of the navigation system which employ | adopted the display apparatus which concerns on another embodiment. (a)、(b)は実施の形態(3)に係る表示装置を採用したナビゲーションシステムにおける表示処理を説明するための説明図である。(A), (b) is explanatory drawing for demonstrating the display process in the navigation system which employ | adopted the display apparatus which concerns on embodiment (3). 実施の形態(3)に係る表示装置を採用したナビゲーションシステムにおけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the navigation system which employ | adopted the display apparatus which concerns on embodiment (3).

符号の説明Explanation of symbols

1、1A、1B マイコン
8 リモコン
9 表示装置
9a ボタンスイッチ
9b 表示画面
10 接触検出手段
1, 1A, 1B Microcomputer 8 Remote control 9 Display device 9a Button switch 9b Display screen 10 Contact detection means

Claims (11)

画像を表示する画面と、
該画面に対する接触を検出し、画像に対する操作を行う操作手段と、
接触状態での接触点の移動方向に合わせて、画像をスクロール表示させる表示制御手段
とを備えていることを特徴とする表示装置。
An image display screen,
Operation means for detecting contact with the screen and performing an operation on the image;
A display device comprising display control means for scrolling and displaying an image in accordance with a moving direction of a contact point in a contact state.
地図を表示する画面と、
該画面に対する接触を検出し、地図に対する操作を行う操作手段と、
接触状態での接触点の移動方向に合わせて、地図をスクロール表示させる表示制御手段
とを備えていることを特徴とする表示装置。
A screen displaying a map;
Operation means for detecting contact with the screen and performing operations on the map;
A display device comprising: display control means for scrolling and displaying a map in accordance with the moving direction of the contact point in the contact state.
画像を表示する画面と、
該画面に対する接触を検出し、画像に対する操作を行う操作手段と、
前記画面に対して円を描くように接触して操作されると、該操作に応じた縮尺の画像を
表示させる表示制御手段とを備えていることを特徴とする表示装置。
An image display screen,
Operation means for detecting contact with the screen and performing an operation on the image;
A display device comprising: display control means for displaying an image of a scale corresponding to the operation when operated by touching the screen so as to draw a circle.
地図を表示する画面と、
該画面に対する接触を検出し、地図に対する操作を行う操作手段と、
前記画面に対して円を描くように接触して操作されると、該操作に応じた縮尺の地図を
表示させる表示制御手段とを備えていることを特徴とする表示装置。
A screen displaying a map;
Operation means for detecting contact with the screen and performing operations on the map;
A display device comprising: a display control unit configured to display a map of a scale corresponding to the operation when operated in contact with the screen so as to draw a circle.
前記表示制御手段は、前記画面に対して描かれた円の回り方向に応じて、画像を拡大又
は縮小して表示可能であることを特徴とする請求項3記載の表示装置。
The display device according to claim 3, wherein the display control unit is capable of displaying an enlarged or reduced image according to a direction around a circle drawn on the screen.
前記表示制御手段は、前記画面に対して描かれた円の回り方向に応じた縮尺の地図を拡
大又は縮小して表示可能であることを特徴とする請求項4記載の表示装置。
5. The display device according to claim 4, wherein the display control means is capable of displaying an enlarged or reduced map of a scale corresponding to a direction around a circle drawn on the screen.
地図を表示する画面と、
該画面に対する接触を検出し、地図に対する操作を行う操作手段とを備え、
該操作手段は、前記地図のスクロール表示を指示する第1の入力指示と、接触状態での
回転操作の回転する方向に応じて、前記地図の縮尺を大きく又は小さくさせる第2の入力
指示とが可能であることを特徴とする表示装置。
A screen displaying a map;
Operation means for detecting contact with the screen and performing operations on the map,
The operation means includes a first input instruction for instructing scroll display of the map and a second input instruction for increasing or decreasing the scale of the map in accordance with the rotating direction of the rotating operation in the contact state. A display device which is possible.
画像を表示する画面と、
該画面に対する接触を検出し、画像に対する操作を行う操作手段とを備え、
該操作手段は、前記画像のスクロール表示を指示する第1の入力指示と、接触状態での
回転操作の回転する方向に応じて、前記画像の縮尺を大きく又は小さくさせる第2の入力
指示とが可能であることを特徴とする表示装置。
An image display screen,
Operation means for detecting contact with the screen and performing an operation on the image,
The operation means includes a first input instruction for instructing scroll display of the image and a second input instruction for increasing or decreasing the scale of the image in accordance with the rotation direction of the rotation operation in the contact state. A display device which is possible.
前記方向と、前記縮尺の変更との関係を設定する縮尺変更設定手段を備えていることを
特徴とする請求項5〜8のいずれかの項に記載の表示装置。
The display device according to claim 5, further comprising a scale change setting unit that sets a relationship between the direction and the change of the scale.
前記表示制御手段は、前記画面の中心点を固定点として、画像を拡大又は縮小して表示
させるものであることを特徴とする請求項5記載の表示装置。
The display device according to claim 5, wherein the display control unit displays an enlarged or reduced image with the center point of the screen as a fixed point.
前記操作手段は、タッチパネルを有することを特徴とする請求項1〜10のいずれかの
項に記載の表示装置。
The display device according to claim 1, wherein the operation unit includes a touch panel.
JP2008018022A 2008-01-29 2008-01-29 Display device Pending JP2008217767A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008018022A JP2008217767A (en) 2008-01-29 2008-01-29 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008018022A JP2008217767A (en) 2008-01-29 2008-01-29 Display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001115428A Division JP5259898B2 (en) 2001-04-13 2001-04-13 Display device and display processing method

Publications (1)

Publication Number Publication Date
JP2008217767A true JP2008217767A (en) 2008-09-18

Family

ID=39837684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008018022A Pending JP2008217767A (en) 2008-01-29 2008-01-29 Display device

Country Status (1)

Country Link
JP (1) JP2008217767A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010110000A1 (en) * 2009-03-27 2010-09-30 三菱電機株式会社 Programmable display
JP2011022701A (en) * 2009-07-14 2011-02-03 Yamaha Corp Image processing apparatus
WO2011040483A1 (en) * 2009-09-29 2011-04-07 日本電気株式会社 Display device, control method and recording medium
WO2011045861A1 (en) * 2009-10-16 2011-04-21 パイオニア株式会社 Map display device, map display method, and map display program
JP2011095242A (en) * 2009-09-30 2011-05-12 Aisin Aw Co Ltd Navigation device
JP2012506574A (en) * 2008-10-21 2012-03-15 シナプティクス インコーポレイテッド Input device and method for adjusting parameters of an electronic system
JP2012527697A (en) * 2009-05-21 2012-11-08 株式会社ソニー・コンピュータエンタテインメント Portable electronic device, method for operating portable electronic device, and recording medium
CN103376945A (en) * 2012-04-13 2013-10-30 佳能株式会社 Information processing apparatus and method for controlling the same
JP2014229002A (en) * 2013-05-21 2014-12-08 キヤノン株式会社 Display control device, control method of display control device, program and storage medium
CN104598063A (en) * 2013-10-31 2015-05-06 纬创资通股份有限公司 Touch control method and touch control electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121291A (en) * 1993-10-25 1995-05-12 Toshiba Corp Device and method for numeric input control
JPH0950235A (en) * 1995-08-10 1997-02-18 Zanavy Informatics:Kk On-vehicle information device
JPH11194863A (en) * 1998-01-06 1999-07-21 Poseidon Technical Systems:Kk Touch input detecting method and touch input detector
JP2000163193A (en) * 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium
JP2000206956A (en) * 1999-01-13 2000-07-28 Sony Corp Device and method for controlling expansion/reduction of display picture

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121291A (en) * 1993-10-25 1995-05-12 Toshiba Corp Device and method for numeric input control
JPH0950235A (en) * 1995-08-10 1997-02-18 Zanavy Informatics:Kk On-vehicle information device
JPH11194863A (en) * 1998-01-06 1999-07-21 Poseidon Technical Systems:Kk Touch input detecting method and touch input detector
JP2000163193A (en) * 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium
JP2000206956A (en) * 1999-01-13 2000-07-28 Sony Corp Device and method for controlling expansion/reduction of display picture

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012506574A (en) * 2008-10-21 2012-03-15 シナプティクス インコーポレイテッド Input device and method for adjusting parameters of an electronic system
WO2010110000A1 (en) * 2009-03-27 2010-09-30 三菱電機株式会社 Programmable display
US9009588B2 (en) 2009-05-21 2015-04-14 Sony Computer Entertainment Inc. Customization of GUI layout based on history of use
US9367216B2 (en) 2009-05-21 2016-06-14 Sony Interactive Entertainment Inc. Hand-held device with two-finger touch triggered selection and transformation of active elements
US9448701B2 (en) 2009-05-21 2016-09-20 Sony Interactive Entertainment Inc. Customization of GUI layout based on history of use
US9524085B2 (en) 2009-05-21 2016-12-20 Sony Interactive Entertainment Inc. Hand-held device with ancillary touch activated transformation of active element
JP2012527697A (en) * 2009-05-21 2012-11-08 株式会社ソニー・コンピュータエンタテインメント Portable electronic device, method for operating portable electronic device, and recording medium
US10705692B2 (en) 2009-05-21 2020-07-07 Sony Interactive Entertainment Inc. Continuous and dynamic scene decomposition for user interface
JP2011022701A (en) * 2009-07-14 2011-02-03 Yamaha Corp Image processing apparatus
JPWO2011040483A1 (en) * 2009-09-29 2013-02-28 日本電気株式会社 Display device, control method, and program
WO2011040483A1 (en) * 2009-09-29 2011-04-07 日本電気株式会社 Display device, control method and recording medium
JP5686735B2 (en) * 2009-09-29 2015-03-18 レノボ・イノベーションズ・リミテッド(香港) Display device, control method, and program
US9063651B2 (en) 2009-09-29 2015-06-23 Lenovo Innovations Limited Display device, control method and recording medium
JP2011095242A (en) * 2009-09-30 2011-05-12 Aisin Aw Co Ltd Navigation device
JP5351283B2 (en) * 2009-10-16 2013-11-27 パイオニア株式会社 Map display device, map display method, and map display program
WO2011045861A1 (en) * 2009-10-16 2011-04-21 パイオニア株式会社 Map display device, map display method, and map display program
US9195381B2 (en) 2012-04-13 2015-11-24 Canon Kabushiki Kaisha Information processing apparatus, method for controlling the same, and storage medium to receive a touch operation for rotating a displayed image
CN103376945B (en) * 2012-04-13 2016-08-03 佳能株式会社 Information processor and control method thereof
CN103376945A (en) * 2012-04-13 2013-10-30 佳能株式会社 Information processing apparatus and method for controlling the same
JP2014229002A (en) * 2013-05-21 2014-12-08 キヤノン株式会社 Display control device, control method of display control device, program and storage medium
CN104598063A (en) * 2013-10-31 2015-05-06 纬创资通股份有限公司 Touch control method and touch control electronic device
CN104598063B (en) * 2013-10-31 2017-06-06 纬创资通股份有限公司 touch control method and touch control electronic device

Similar Documents

Publication Publication Date Title
JP5259898B2 (en) Display device and display processing method
JP2008217767A (en) Display device
JP2008216991A (en) Display device
JP4678534B2 (en) Navigation device and map scroll processing method
JP4609242B2 (en) Operation control device
JP2008146454A (en) Operation device for on-vehicle equipment
JP2008209915A (en) Display device
JP4808137B2 (en) Input device with dial switch
JPH1137770A (en) Navigation system
JP2004271439A (en) Operation system and cursor controller unit
JP2007025023A (en) Navigation system
JP2011192231A (en) In-vehicle input device, and input program therefor
JP5358215B2 (en) Map display device
JP5626934B2 (en) Input device and input method
JP4897342B2 (en) In-vehicle map display device
JP5283321B2 (en) Navigation device
JP4714472B2 (en) Input control device
JP2008216990A (en) Display device
JP2008185452A (en) Navigation device
JP2008216102A (en) On-vehicle navigation system
JP2006171469A (en) Map display device
JP4381396B2 (en) Navigation device
JP5649670B2 (en) input method
JP5040402B2 (en) Navigation device and navigation screen display method
JP4564825B2 (en) Navigation device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110125