JP2007280316A - Touch panel input device - Google Patents

Touch panel input device Download PDF

Info

Publication number
JP2007280316A
JP2007280316A JP2006109309A JP2006109309A JP2007280316A JP 2007280316 A JP2007280316 A JP 2007280316A JP 2006109309 A JP2006109309 A JP 2006109309A JP 2006109309 A JP2006109309 A JP 2006109309A JP 2007280316 A JP2007280316 A JP 2007280316A
Authority
JP
Japan
Prior art keywords
display
touch panel
displayed
input device
approach
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006109309A
Other languages
Japanese (ja)
Inventor
Kenta Yasutomo
健太 安友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Xanavi Informatics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xanavi Informatics Corp filed Critical Xanavi Informatics Corp
Priority to JP2006109309A priority Critical patent/JP2007280316A/en
Publication of JP2007280316A publication Critical patent/JP2007280316A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To facilitate input with an input device having a transparent touch panel over a display. <P>SOLUTION: The input device having a transparent touch panel over a display comprises means for detecting finger approach, and when a finger approaches the touch panel, zooms in on the current display. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、タッチパネルを備えた入力装置に関する。   The present invention relates to an input device including a touch panel.

操作者から、表示画面の前面に設けられた透過性のタッチパネルを介して、入力を受け付ける車載用ナビゲーション装置がある(非特許文献1参照)。   There is an in-vehicle navigation device that receives input from an operator via a transparent touch panel provided on the front surface of a display screen (see Non-Patent Document 1).

特許庁 標準技術集「ナビゲーション装置のユーザインターフェース」主分類:4−C タッチパネルJPO Standard Technology Collection “Navigation Device User Interface” Main Category: 4-C Touch Panel

しかし、表示画面に表示されたタッチしようとする候補の表示が小さいと、その候補を的確にタッチするのは難しい。   However, if the display of the candidate to be touched displayed on the display screen is small, it is difficult to touch the candidate accurately.

本発明の目的は、タッチパネルを備える入力装置において、入力を容易にすることにある。   An object of the present invention is to facilitate input in an input device including a touch panel.

上記課題を解決すべく本発明の入力装置は、ディスプレイと、前記ディスプレイの前面に配置された透過性のタッチパネルと、前記タッチパネルへの物体の接近を検知する接近検知手段と、前記接近検知手段により物体の接近を検知した場合、前記ディスプレイに表示中の内容の少なくとも一部を拡大表示する表示制御手段とを備える。   In order to solve the above problems, an input device according to the present invention includes a display, a transparent touch panel disposed on the front surface of the display, an approach detection unit that detects an approach of an object to the touch panel, and the approach detection unit. And display control means for enlarging and displaying at least a part of the contents being displayed on the display when the approach of the object is detected.

前記表示制御手段は、前記ディスプレイに選択肢として表示されている表示物を拡大表示するようにしてもよい。   The display control means may enlarge and display a display object displayed as an option on the display.

また、前記接近検知手段は、前記タッチパネルへ接近する物体の位置を検知するようにしてもよい。そして、前記表示制御手段は、前記接近検知手段により検知した物体の位置に応じて、前記ディスプレイに表示中の内容の少なくとも一部を拡大表示するようにしてもよい。   The approach detection means may detect the position of an object approaching the touch panel. The display control means may enlarge and display at least a part of the contents being displayed on the display in accordance with the position of the object detected by the approach detection means.

また、前記表示制御手段は、前記検知した物体の位置に対応する前記ディスプレイに表示中の表示内容の近辺の表示内容は、拡大表示し、その周辺は、そのまま表示するようにしてもよい。   Further, the display control means may enlarge the display content in the vicinity of the display content being displayed on the display corresponding to the detected position of the object, and display the periphery as it is.

以下に、本発明の一実施形態について、図面を参照して説明する。   An embodiment of the present invention will be described below with reference to the drawings.

図1は、本発明一実施形態が適用された車載情報装置の外観構成を示す。この装置は、ナビゲーションユニット10と、地図等を表示するディスプレイ21と、ユーザからの入力を受け付けるスイッチユニット22と、車両の現在位置を出力するGPS(Global Positioning System)受信器と、CDやDVD等の記録媒体に格納された地図情報等を読み出す外部記憶装置40とを備える。   FIG. 1 shows an external configuration of an in-vehicle information device to which an embodiment of the present invention is applied. This apparatus includes a navigation unit 10, a display 21 that displays a map, a switch unit 22 that receives input from a user, a GPS (Global Positioning System) receiver that outputs the current position of a vehicle, a CD, a DVD, and the like. And an external storage device 40 that reads map information and the like stored in the recording medium.

ナビゲーションユニット10は、スイッチユニット22からの操作に応じて外部記憶装置40から地図データを読み出し、GPS受信器30から得られた位置情報と合わせてディスプレイ21に地図表示する。   The navigation unit 10 reads map data from the external storage device 40 in response to an operation from the switch unit 22, and displays the map on the display 21 together with the position information obtained from the GPS receiver 30.

図2は、ナビゲーションユニット10の機能ブロック図である。ナビゲーションユニット10は、ユーザ操作解析部11と、記憶部12と、ナビゲーション処理部13と、現在位置算出部14と、表示処理部15とを有する。   FIG. 2 is a functional block diagram of the navigation unit 10. The navigation unit 10 includes a user operation analysis unit 11, a storage unit 12, a navigation processing unit 13, a current position calculation unit 14, and a display processing unit 15.

ユーザ操作解析部11は、スイッチユニット22を介して入力されたユーザからの要求を受け付け、その要求内容を解析して、その要求内容に対応する処理が実行されるようにナビゲーションユニット10の各部を制御する。   The user operation analysis unit 11 receives a request from the user input via the switch unit 22, analyzes the request content, and sets each unit of the navigation unit 10 so that processing corresponding to the request content is executed. Control.

記憶部12は、ナビゲーション処理部13により探索された経路を記憶する。また、現在位置算出部14から求められた車両の移動の軌跡を蓄積する。   The storage unit 12 stores the route searched by the navigation processing unit 13. In addition, the movement trajectory of the vehicle obtained from the current position calculation unit 14 is accumulated.

ナビゲーション処理部13は、現在位置から目的地までの経路を探索する。また、探索した経路を用いて経路誘導のための情報を生成し、その情報を用いてディスプレイ21を介して経路誘導を行う。   The navigation processing unit 13 searches for a route from the current position to the destination. Further, information for route guidance is generated using the searched route, and route guidance is performed via the display 21 using the information.

現在位置算出部14は、GPS受信器30からの出力と外部記憶装置40に記憶されている地図データからマップマッチングにより現在位置を算出する。   The current position calculation unit 14 calculates the current position by map matching from the output from the GPS receiver 30 and the map data stored in the external storage device 40.

表示処理部15は、ディスプレイ21への表示のためのコマンドを生成し、ディスプレイ21に送る。例えば、表示が要求される領域にある地図データを外部記憶装置40から受け取り、指定された縮尺、描画方式で、道路、その他の地図構成物や、現在地、目的地、誘導経路のための矢印といったマークを描画するように地図描画コマンドを生成する。そして、生成したコマンドを、ディスプレイ21に送信する。   The display processing unit 15 generates a command for display on the display 21 and sends the command to the display 21. For example, the map data in the area where display is required is received from the external storage device 40, and the roads, other map components, the current location, the destination, and the arrow for the guide route are specified with the specified scale and drawing method. A map drawing command is generated so as to draw the mark. Then, the generated command is transmitted to the display 21.

なお、ナビゲーションユニット10は、CPUと、プログラムおよびデータを記憶するROM,RAM等のメモリにより構成される。また、図2で示した各機能部は、CPUが、メモリにロードされたプログラムを実行することにより達成される。   The navigation unit 10 includes a CPU and a memory such as a ROM and a RAM that store programs and data. 2 is achieved by the CPU executing a program loaded in the memory.

図1に戻って説明する。ディスプレイ21は、液晶ディスプレイなどの薄型ディスプレイで構成される。   Returning to FIG. The display 21 is a thin display such as a liquid crystal display.

図3は、スイッチユニット22の断面図である。   FIG. 3 is a cross-sectional view of the switch unit 22.

図示するように、スイッチユニット22は、ディスプレイ21の前面に配置されている。スイッチユニット22は、方形開口を有するスイッチユニット基板222を備える。スイッチユニット基板222には、タッチパネル221が設置されている。   As shown in the figure, the switch unit 22 is disposed on the front surface of the display 21. The switch unit 22 includes a switch unit substrate 222 having a square opening. A touch panel 221 is installed on the switch unit substrate 222.

タッチパネル221は、ディスプレイ21の表示内容を透過するようになっている。タッチパネル221は、指によりタッチされると、タッチされた位置のパネル上の座標を出力する。タッチパネル221は、静電容量を利用するものや、抵抗値の変化を利用するものを用いることができる。   The touch panel 221 is configured to transmit display content on the display 21. When touched by a finger, the touch panel 221 outputs coordinates on the panel at the touched position. As the touch panel 221, a touch panel that uses capacitance or a touch panel that uses a change in resistance value can be used.

スイッチユニット基板222には、タッチパネル21にタッチしようとする指(物体)の接近を検知するため、発光ダイオード(LED)223と、その発光ダイオードから放射された光を受光するフォトダイオード(フォトディテクタ:PD)224とが配置されている。   The switch unit substrate 222 has a light emitting diode (LED) 223 and a photodiode (photo detector: PD) that receives light emitted from the light emitting diode in order to detect the approach of a finger (object) to touch the touch panel 21. ) 224 is arranged.

図4は、スイッチユニット基板222の平面図である。なお、図4では、スイッチ基板222を覆うケース225を省略している。   FIG. 4 is a plan view of the switch unit substrate 222. In FIG. 4, the case 225 that covers the switch substrate 222 is omitted.

発光ダイオード223及びフォトダイオード224は、図示するように、スイッチユニット基板222の方形開口の内部に向けて、水平方向および垂直方向の両方向にアレイとなって対向配置されている。このように配置するのは、指が接近した場合に、その指の位置を求めるためである。   As shown in the drawing, the light emitting diode 223 and the photodiode 224 are opposed to each other in an array in both the horizontal direction and the vertical direction toward the inside of the rectangular opening of the switch unit substrate 222. The reason for arranging in this way is to obtain the position of the finger when the finger approaches.

(動作の説明)次に、上記のように構成される車載情報装置の動作について説明する。   (Description of Operation) Next, the operation of the in-vehicle information device configured as described above will be described.

図5は、車載情報装置がディスプレイ21に情報を表示しているときに行う処理の流れを示すフロー図である。   FIG. 5 is a flowchart showing the flow of processing performed when the in-vehicle information device displays information on the display 21.

まず、ユーザ操作解析部11は、指の接近を監視する。具体的には、いずれかのフォトダイオード224が、発光ダイオード223からの光を受光しない状態となったか否かによって、指の接近を判断する(S110)。   First, the user operation analysis unit 11 monitors the approach of a finger. Specifically, the approach of the finger is determined based on whether any one of the photodiodes 224 is in a state where it does not receive the light from the light emitting diode 223 (S110).

指の接近が検出されると(S110でYes)、ユーザ操作解析部11は、指の位置を求める(S120)。指の位置は、どの発光ダイオード223からの光が遮断されたかにより求めることができる。例えば、図4の例で、発光ダイオードX4及びY5の光が遮断された場合、指は、発光ダイオードX4の放射方向と及び発光ダイオードY4の放射方向の交点にあると判断できる。   When the approach of the finger is detected (Yes in S110), the user operation analysis unit 11 obtains the position of the finger (S120). The position of the finger can be determined according to which light-emitting diode 223 is blocked from light. For example, in the example of FIG. 4, when the light of the light emitting diodes X4 and Y5 is blocked, it can be determined that the finger is at the intersection of the emission direction of the light emitting diode X4 and the emission direction of the light emitting diode Y4.

つぎに、ユーザ操作解析部11は、表示処理部15に、現在表示している表示内容を拡大表示するように指示する。これを受けて、表示処理部15は、現在表示している表示内容を拡大表示する(S130)。   Next, the user operation analysis unit 11 instructs the display processing unit 15 to enlarge and display the currently displayed display content. Receiving this, the display processing unit 15 enlarges and displays the currently displayed display content (S130).

図6(A)は、指が接近する前の画面500の表示例である。図示するように、地図530とともに、複数の選択肢520からなるメニューが表示されている。   FIG. 6A is a display example of the screen 500 before the finger approaches. As illustrated, a menu including a plurality of options 520 is displayed together with a map 530.

この状態において、指の接近を検知すると、表示処理部15は、図6(B)に示すように、選択肢520aを拡大表示する。図中、Pは、接近した指の位置を示す。本実施形態では、指位置Pを中心として拡大表示するようにしている。また、タッチされる候補となりうる選択肢520aを抽出し、拡大表示し、タッチされる候補とならない他の情報(地図530)は、拡大表示せずに、そのまま表示することとしている。なお、選択肢は、テキストで表示したものであってもよいし、記号、図形などのアイコンで表示してものであってもよい。   In this state, when the approach of the finger is detected, the display processing unit 15 enlarges and displays the option 520a as shown in FIG. In the figure, P indicates the position of the approaching finger. In this embodiment, the enlarged display is performed with the finger position P as the center. Further, the option 520a that can be a candidate to be touched is extracted and displayed in an enlarged manner, and other information (map 530) that is not a candidate to be touched is displayed as it is without being enlarged. The options may be displayed as text or may be displayed as icons such as symbols and figures.

タッチパネル221は、指によりタッチされると、その座標情報をナビゲーションユニット10に送る。ユーザ操作解析部11は、その座標位置から、いずれの選択肢520が選択されたかを判定し、選択された内容の処理が実行されるように各機能部に指示することになる。   The touch panel 221 sends the coordinate information to the navigation unit 10 when touched by a finger. The user operation analysis unit 11 determines which option 520 has been selected from the coordinate position, and instructs each functional unit to execute processing of the selected content.

図5に戻って説明する。指の接近により、表示内容(表示物)を拡大表示すると、ユーザ操作解析部11は、指の接近を引き続き検知中か否か判定する(S140)。指の接近を検知中の場合(S140でYes)、拡大表示を継続する。   Returning to FIG. When the display content (displayed object) is enlarged and displayed by the approach of the finger, the user operation analysis unit 11 determines whether or not the approach of the finger is still being detected (S140). When the approach of the finger is being detected (Yes in S140), the enlarged display is continued.

一方、指の接近を検知しなくなった場合、すなわち、指により遮断されていた光をフォトダイオード224が受光することとなった場合(S140でNo)、ユーザ操作解析部11は、表示内容の拡大表示を終了し、元の表示状態に戻すように、表示処理部15に指示する。これを受けて、表示処理部15は、表示内容の表示状態を、元の状態に戻す。図6においては、(A)の表示状態に戻ることになる。   On the other hand, when the approach of the finger is no longer detected, that is, when the photodiode 224 receives the light blocked by the finger (No in S140), the user operation analysis unit 11 enlarges the display content. The display processing unit 15 is instructed to end the display and return to the original display state. In response to this, the display processing unit 15 returns the display state of the display content to the original state. In FIG. 6, the display state returns to (A).

そして、ユーザ操作解析部11は、S110に戻り、再び、指の接近を監視する。   Then, the user operation analysis unit 11 returns to S110 and again monitors the approach of the finger.

以上、ディスプレイ21に情報を表示している場合における、ユーザの指がタッチパネル221に接近した場合の処理について説明した。   As above, the process when the user's finger approaches the touch panel 221 when information is displayed on the display 21 has been described.

なお、表示内容の拡大の方法は、次のようにしてもよい。   Note that the display contents may be enlarged as follows.

例えば、図6の例では、選択肢の全てを拡大表示したが、これに限らず、指の位置に対応する選択肢(メニュー項目)のみを拡大表示し、他の選択肢は、そのまま表示するようにしてもよい。また、そのまま拡大表示するのではなく、指位置Pの位置のメニュー項目のみを、他のメニュー項目に比べて、太く表示するようにしてもよい。   For example, in the example of FIG. 6, all of the options are enlarged and displayed. However, the present invention is not limited to this, and only the options (menu items) corresponding to the finger position are enlarged and the other options are displayed as they are. Also good. Further, instead of enlarging the display as it is, only the menu item at the finger position P may be displayed thicker than the other menu items.

図7は、接近した指の位置Pを中心に、表示されている内容の全体を拡大する場合の例を示す。図示するように、表示処理部15は、タッチされる候補である選択肢520とともに、背景の地図情報430も拡大表示している(図7(B))。   FIG. 7 shows an example in which the entire displayed content is enlarged around the position P of the approaching finger. As shown in the figure, the display processing unit 15 enlarges and displays the background map information 430 together with the option 520 that is a candidate to be touched (FIG. 7B).

図8は、目的地の設定などにおいて、地図を表示中の場合である。かかる場合、地図の全体が選択される候補であり、指の接近を検知すると、接近した指の位置Pを中心に地図を拡大表示する。図示するように、表示処理部15は、接近した指の位置Pを中心に地図を拡大表示している(図8(B))。   FIG. 8 shows a case where a map is being displayed when setting a destination. In this case, the entire map is a candidate to be selected, and when the approach of a finger is detected, the map is enlarged and displayed with the position P of the approaching finger as the center. As shown in the figure, the display processing unit 15 enlarges and displays the map around the position P of the approaching finger (FIG. 8B).

図9は、同様に、地図の表示中において、指の接近を検知すると、接近した指の位置Pを中心に、表示中の地図を部分的に拡大表示するようにした場合の例である。図示するように、表示処理部15は、接近した指の位置Pを中心に、地図535を部分的に拡大表示している(図9(B))。このようにすれば、拡大表示されない周辺の部分も同時に表示されるので、現在どの部分を拡大表示しているのかが一目瞭然となる。   Similarly, FIG. 9 shows an example in which when the approach of a finger is detected during the display of the map, the currently displayed map is partially enlarged and displayed around the position P of the approaching finger. As shown in the figure, the display processing unit 15 partially enlarges and displays the map 535 around the position P of the approaching finger (FIG. 9B). In this way, peripheral portions that are not enlarged are displayed at the same time, so it is obvious at a glance which portion is currently enlarged.

これらの拡大の方法のうち、いずれの方法で拡大表示するかは、予め定めていてもよいし、ユーザからの要求を受け付けて、要求に応じて設定できるようにしてもよい。   Which of these enlargement methods is used for enlargement display may be determined in advance, or may be set in response to a request from a user.

以上、本発明の一実施形態について説明した。   The embodiment of the present invention has been described above.

上記実施形態によれば、ディスプレイ上に透過性のタッチパネルを備える入力装置において、元の表示物(アイコンなど)が小さい場合でも入力が容易になる。   According to the embodiment, in an input device including a transparent touch panel on a display, input is facilitated even when the original display object (such as an icon) is small.

また、最初から表示を大きくするのではなく、指の接近により、表示を拡大するので、表示する情報の量を減少させない。   In addition, the display is not enlarged from the beginning, but is enlarged by the approach of a finger, so that the amount of information to be displayed is not reduced.

本発明は、上記実施形態に制限されることなく、本発明の要旨の範囲内でさまざまな変形が可能である。   The present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the gist of the present invention.

例えば、指の接近を検知する方法は、上記実施形態で説明した方法に限られない。タッチパネルに向かって接近する指(物体)を検知できる方法であればよい。例えば、赤外線センサにより、指の接近を検知するようにしてもよい。   For example, the method of detecting the approach of a finger is not limited to the method described in the above embodiment. Any method that can detect a finger (object) approaching the touch panel may be used. For example, the approach of a finger may be detected by an infrared sensor.

また、上記実施形態では、入力装置として、ディスプレイ21の前面に設けられたスイッチユニット22を備える場合について説明したが、キーボード、ジョイスティック、リモコン、音声入力装置など、他の入力装置を同時に有していてもよい。   Moreover, although the said embodiment demonstrated the case where the switch unit 22 provided in the front surface of the display 21 was provided as an input device, it has other input devices, such as a keyboard, a joystick, a remote control, and a voice input device simultaneously. May be.

また、本発明を車載用のナビゲーション装置に適用した例について説明したが、本発明は車載用以外のナビゲーション装置に適用することができる。また、ナビゲーション装置以外の、オーディオ装置、放送出力装置などの情報出力装置にも適用することができる。   Moreover, although the example which applied this invention to the vehicle-mounted navigation apparatus was demonstrated, this invention can be applied to navigation apparatuses other than vehicle-mounted. The present invention can also be applied to information output devices such as audio devices and broadcast output devices other than navigation devices.

図1は、車載情報装置の概略構成図である。FIG. 1 is a schematic configuration diagram of an in-vehicle information device. 図2は、ナビゲーションユニットの機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of the navigation unit. 図3は、スイッチユニットの断面図である。FIG. 3 is a cross-sectional view of the switch unit. 図4は、スイッチユニットの平面図である。FIG. 4 is a plan view of the switch unit. 図5は、動作の流れのフロー図である。FIG. 5 is a flowchart of the operation flow. 図6は、表示画面の遷移の例である。FIG. 6 is an example of transition of the display screen. 図7は、表示画面の遷移の例である。FIG. 7 is an example of transition of the display screen. 図8は、表示画面の遷移の例である。FIG. 8 is an example of transition of the display screen. 図9は、表示画面の遷移の例である。FIG. 9 is an example of transition of the display screen.

符号の説明Explanation of symbols

10…ナビゲーションユニット、
21…ディスプレイ、22…スイッチユニット、
30…GPS受信器
40…外部記憶装置
11…ユーザ操作解析部、12…記憶部、13…ナビゲーション装置、14…現在位置算出部、15…表示処理部
10 ... Navigation unit,
21 ... Display, 22 ... Switch unit,
DESCRIPTION OF SYMBOLS 30 ... GPS receiver 40 ... External memory | storage device 11 ... User operation analysis part, 12 ... Memory | storage part, 13 ... Navigation apparatus, 14 ... Current position calculation part, 15 ... Display processing part

Claims (5)

入力装置であって、
ディスプレイと、
前記ディスプレイの前面に配置された透過性のタッチパネルと、
前記タッチパネルへの物体の接近を検知する接近検知手段と
前記接近検知手段により物体の接近を検知した場合、前記ディスプレイに表示中の内容の少なくとも一部を拡大表示する表示制御手段と
を備えることを特徴とする入力装置。
An input device,
Display,
A transmissive touch panel disposed in front of the display;
An approach detecting means for detecting the approach of the object to the touch panel; and a display control means for enlarging and displaying at least a part of the contents being displayed on the display when the approach detecting means detects the approach of the object. Characteristic input device.
請求項1において、
前記表示制御手段は、
前記ディスプレイに表示中の情報の中から選択の対象となる情報を抽出し、
抽出した情報に関する表示を拡大表示する
ことを特徴とする入力装置。
In claim 1,
The display control means includes
Extract information to be selected from the information displayed on the display,
An input device that displays an enlarged display of extracted information.
請求項1において、
前記表示制御手段は、
前記ディスプレイに選択肢として表示されている表示物を拡大表示する
ことを特徴とする入力装置。
In claim 1,
The display control means includes
An input device that enlarges and displays a display object displayed as an option on the display.
入力装置であって、
ディスプレイと、
前記ディスプレイの前面に配置された透過性のタッチパネルと、
前記タッチパネルへ接近する物体の位置を検知する接近検知手段と
前記接近検知手段により検知した物体の位置に応じて、前記ディスプレイに表示中の内容の少なくとも一部を拡大表示する表示制御手段と
を備えることを特徴とする入力装置。
An input device,
Display,
A transmissive touch panel disposed in front of the display;
An approach detection means for detecting a position of an object approaching the touch panel; and a display control means for enlarging and displaying at least a part of the content being displayed on the display in accordance with the position of the object detected by the approach detection means. An input device characterized by that.
請求項4において、
前記表示制御手段は、
前記検知した物体の位置に対応する前記ディスプレイに表示中の表示内容の近辺の表示内容は、拡大表示し、その周辺の表示内容は、そのまま表示する
ことを特徴とする入力装置。
In claim 4,
The display control means includes
An input device characterized in that the display content in the vicinity of the display content being displayed on the display corresponding to the detected position of the object is enlarged and the display content in the vicinity thereof is displayed as it is.
JP2006109309A 2006-04-12 2006-04-12 Touch panel input device Pending JP2007280316A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006109309A JP2007280316A (en) 2006-04-12 2006-04-12 Touch panel input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006109309A JP2007280316A (en) 2006-04-12 2006-04-12 Touch panel input device

Publications (1)

Publication Number Publication Date
JP2007280316A true JP2007280316A (en) 2007-10-25

Family

ID=38681664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006109309A Pending JP2007280316A (en) 2006-04-12 2006-04-12 Touch panel input device

Country Status (1)

Country Link
JP (1) JP2007280316A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075656A (en) * 2007-09-18 2009-04-09 Toyota Motor Corp Input display device
JP2009134508A (en) * 2007-11-30 2009-06-18 Alpine Electronics Inc Image display system
JP2010151470A (en) * 2008-12-24 2010-07-08 Aisin Aw Co Ltd Navigation device and program
JP2011118007A (en) * 2009-11-30 2011-06-16 Pioneer Electronic Corp Map display device, map display method, map display program and recording medium
JP2011118006A (en) * 2009-11-30 2011-06-16 Pioneer Electronic Corp Map display device, map display method, map display program and recording medium
JP2011154555A (en) * 2010-01-27 2011-08-11 Fujitsu Toshiba Mobile Communications Ltd Electronic apparatus
US20120308204A1 (en) * 2011-05-31 2012-12-06 Samsung Electronics Co., Ltd. Method and apparatus for controlling a display of multimedia content using a timeline-based interface
WO2013125103A1 (en) 2012-02-20 2013-08-29 Necカシオモバイルコミュニケーションズ株式会社 Touch panel input device and control method for same
JP2018025916A (en) * 2016-08-09 2018-02-15 本田技研工業株式会社 On-vehicle operation device
JP2020177428A (en) * 2019-04-17 2020-10-29 京セラ株式会社 Electronic apparatus, method for control, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110733A (en) * 1993-10-13 1995-04-25 Nippon Signal Co Ltd:The Input device
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
JPH1165769A (en) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd Touch panel display control method and recording medium for recording the same
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP2003044223A (en) * 2001-07-30 2003-02-14 Pfu Ltd Display unit equipped with touch input mechanism and method for controlling the same and control program for the same
JP2006059238A (en) * 2004-08-23 2006-03-02 Denso Corp Information input display device
JP2006085218A (en) * 2004-09-14 2006-03-30 Clarion Co Ltd Touch panel operating device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110733A (en) * 1993-10-13 1995-04-25 Nippon Signal Co Ltd:The Input device
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
JPH1165769A (en) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd Touch panel display control method and recording medium for recording the same
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP2003044223A (en) * 2001-07-30 2003-02-14 Pfu Ltd Display unit equipped with touch input mechanism and method for controlling the same and control program for the same
JP2006059238A (en) * 2004-08-23 2006-03-02 Denso Corp Information input display device
JP2006085218A (en) * 2004-09-14 2006-03-30 Clarion Co Ltd Touch panel operating device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075656A (en) * 2007-09-18 2009-04-09 Toyota Motor Corp Input display device
JP2009134508A (en) * 2007-11-30 2009-06-18 Alpine Electronics Inc Image display system
JP2010151470A (en) * 2008-12-24 2010-07-08 Aisin Aw Co Ltd Navigation device and program
JP2011118007A (en) * 2009-11-30 2011-06-16 Pioneer Electronic Corp Map display device, map display method, map display program and recording medium
JP2011118006A (en) * 2009-11-30 2011-06-16 Pioneer Electronic Corp Map display device, map display method, map display program and recording medium
JP2011154555A (en) * 2010-01-27 2011-08-11 Fujitsu Toshiba Mobile Communications Ltd Electronic apparatus
US20120308204A1 (en) * 2011-05-31 2012-12-06 Samsung Electronics Co., Ltd. Method and apparatus for controlling a display of multimedia content using a timeline-based interface
US9311965B2 (en) * 2011-05-31 2016-04-12 Samsung Electronics Co., Ltd. Method and apparatus for controlling a display of multimedia content using a timeline-based interface
WO2013125103A1 (en) 2012-02-20 2013-08-29 Necカシオモバイルコミュニケーションズ株式会社 Touch panel input device and control method for same
EP3179347A1 (en) 2012-02-20 2017-06-14 NEC Corporation Touch panel input device and control method of the touch panel input device
JP2018025916A (en) * 2016-08-09 2018-02-15 本田技研工業株式会社 On-vehicle operation device
JP2020177428A (en) * 2019-04-17 2020-10-29 京セラ株式会社 Electronic apparatus, method for control, and program

Similar Documents

Publication Publication Date Title
JP2007280316A (en) Touch panel input device
JP2006031499A (en) Information input/display device
US10168888B2 (en) Information processing device and touch operation detection method
US7577518B2 (en) Navigation system
KR101654553B1 (en) Method and apparatus for inputting touch of portable terminal
JP2008180786A (en) Navigation system and navigation device
JP2006059238A (en) Information input display device
JP5754410B2 (en) Display device
JP2006139387A (en) Image display apparatus
JP2011095238A (en) Navigation device and program
JP2008226101A (en) Selecting operation support device, method and program
JP2016038621A (en) Space input system
JP3893323B2 (en) Navigation input display device and navigation input display method
JP6177660B2 (en) Input device
JPH1164026A (en) Navigation system
JP2011027691A (en) Map display device
EP3748476B1 (en) Electronic device, control method, and program
JP5457015B2 (en) Navigation device and scroll display method
JP2008286585A (en) On-vehicle navigation device
JP4807635B2 (en) Navigation device
KR20110121932A (en) Apparatus and method displaying menu icon of navigation using proximity sensor
JP2006199115A (en) Input control device, and input screen display method
JP5353777B2 (en) Map display device, map display method and program
JP5916690B2 (en) Map display device
JP2009145214A (en) Navigation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090331

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308