JP2006085218A - Touch panel operating device - Google Patents

Touch panel operating device Download PDF

Info

Publication number
JP2006085218A
JP2006085218A JP2004266347A JP2004266347A JP2006085218A JP 2006085218 A JP2006085218 A JP 2006085218A JP 2004266347 A JP2004266347 A JP 2004266347A JP 2004266347 A JP2004266347 A JP 2004266347A JP 2006085218 A JP2006085218 A JP 2006085218A
Authority
JP
Japan
Prior art keywords
display
display screen
contact
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004266347A
Other languages
Japanese (ja)
Inventor
Koichiro Fukunaga
功一郎 福永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2004266347A priority Critical patent/JP2006085218A/en
Publication of JP2006085218A publication Critical patent/JP2006085218A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a touch panel operating device for varying a display size of an operation image displayed on a display screen in response to an operation means to contact with the display screen. <P>SOLUTION: A control means 8 of a touch panel operating device 1 detects the operation image displayed at a display position on the display screen corresponding to a position of the tip of the operating means when a distance of the tip thereof detected by a distance detection means 7 is within a predetermined distance from the display screen, compares a display range of the detected operation image and a contact range stored in a contact range storage means 4, and controls an image processing means 3 so as to perform the magnified display of the operation image displayed on the display screen when the contact range is larger than the display range. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、操作手段に応じてディスプレイに表示される操作用画像の表示サイズを変更することが可能なタッチパネル操作装置に関する。   The present invention relates to a touch panel operation device capable of changing a display size of an operation image displayed on a display in accordance with an operation unit.

近時の電子機器、例えば、カーナビゲーションシステム、PDA等では、ディスプレイ等の表示部に表示される操作ボタン、アイコン等(操作用画像)を、操作者が指又はスタイラスペン等(操作手段)でタッチ(接触)することによって操作処理を行うことが可能なタッチパネル操作装置が多く採用されている。   In recent electronic devices such as a car navigation system and a PDA, an operation button, an icon, etc. (operation image) displayed on a display unit such as a display can be displayed by an operator with a finger or a stylus pen (operation means). Many touch panel operation devices capable of performing an operation process by touching (contacting) are employed.

タッチパネル操作装置において、操作者がディスプレイ画面にタッチして電子機器の操作を行う場合、ディスプレイに数多くの操作ボタンが表示されていると、操作ボタンの表示面積(タッチ可能面積)が狭くなってしまうので、所望の操作ボタンの近隣の他の操作ボタンを押してしまい、誤操作を招くおそれがあった。   In a touch panel operation device, when an operator touches a display screen to operate an electronic device, if many operation buttons are displayed on the display, the display area (touchable area) of the operation buttons is reduced. As a result, another operation button in the vicinity of the desired operation button may be pressed, leading to an erroneous operation.

このため、今日のタッチパネル操作装置では、操作者の指やスタイラスペン等とディスプレイ画面との距離を検出手段が検出し、指等がディスプレイ画面に所定距離以上近接した場合には、指等の位置に対応するディスプレイ画面の表示画像を拡大表示させる装置が提案されている(例えば、特許文献1、特許文献2参照。)。
特開平10−269022号公報 特開平11−65769号公報
For this reason, in today's touch panel operation devices, the detection means detects the distance between the operator's finger, stylus pen, etc. and the display screen, and if the finger etc. is close to the display screen by a predetermined distance or more, the position of the finger etc. Have been proposed (see, for example, Patent Document 1 and Patent Document 2).
Japanese Patent Laid-Open No. 10-269022 Japanese Patent Laid-Open No. 11-65769

しかしながら、ディスプレイ画面に表示される操作ボタンは、複数の操作画面に対して全て同じ大きさで表示されているのではなく、操作画面毎に、または操作ボタンの役割毎に表示される大きさが異なっているため、一律にディスプレイの表示が拡大されると操作性が低下するおそれがある。   However, the operation buttons displayed on the display screen are not all displayed in the same size for a plurality of operation screens, but the size displayed for each operation screen or for each role of the operation button. Since they are different, there is a risk that the operability may be reduced when the display on the display is enlarged uniformly.

また、ディスプレイにタッチする物が、例えば、操作者の指である場合と、スタイラスペンである場合とでは、ディスプレイに接触する部分の面積が異なるため、スタイラスペンの場合には拡大しなくても誤操作無く操作ボタンを押すことができるが、指を用いる場合には、拡大しないと誤操作を招いてしまう場合があり得るという問題があった。   Moreover, since the area of the part which contacts a display differs in the case where the thing which touches a display is an operator's finger, for example, and the case where it is a stylus pen, in the case of a stylus pen, it does not need to expand. Although the operation button can be pressed without any erroneous operation, there has been a problem that when the finger is used, an erroneous operation may be caused unless it is enlarged.

本発明は、上記問題に鑑みてなされたたものであり、表示画面に接触する操作手段に応じて、表示画面に表示される操作用画像の表示サイズを変更することが可能なタッチパネル操作装置を提供することを課題とする。   The present invention has been made in view of the above problems, and provides a touch panel operation device capable of changing the display size of an operation image displayed on a display screen in accordance with an operation unit that touches the display screen. The issue is to provide.

上記課題を解決するために、本発明に係るタッチパネル操作装置は、操作用画像を表示画面に表示する表示手段と、前記表示画面に表示させる複数の操作用画像を記憶する画像情報記憶手段と、前記画像情報記憶手段に記憶される複数の操作用画像より特定の操作用画像を抽出して、前記表示画面に表示させるための表示画像を作成する画像処理手段と、前記表示画面に接触した操作手段の有無を判断する接触状態判断手段と、前記表示画面に前記操作手段が接触した場合に、当該操作手段が接触した前記表示画面上の接触位置及び接触範囲を検出する接触位置検出手段と、前記接触位置検出手段により検出された前記操作手段の接触範囲を予め記憶する接触範囲記憶手段と、前記表示画面の前面に位置する前記操作手段の先端の前記操作画面からの距離及び位置を検出する距離検出手段と、前記距離検出手段により検出された前記操作手段の先端の距離が、前記表示画面より所定距離以内である場合には、前記操作手段の先端の位置に対応する表示画面上の表示位置に表示されている操作用画像を検出し、検出された操作用画像の表示範囲と前記接触範囲記憶手段に記憶される前記接触範囲との比較を行い、前記接触範囲が前記表示範囲よりも大きい場合には、前記表示画面に表示されている操作用画像を拡大表示させるように前記画像処理手段を制御する制御手段とを備えることを特徴とする。   In order to solve the above problems, a touch panel operation device according to the present invention includes a display unit that displays an operation image on a display screen, an image information storage unit that stores a plurality of operation images to be displayed on the display screen, Image processing means for extracting a specific operation image from a plurality of operation images stored in the image information storage means and creating a display image for display on the display screen; and an operation in contact with the display screen Contact state determination means for determining the presence or absence of means, contact position detection means for detecting a contact position and a contact range on the display screen that the operation means has contacted when the operation means is in contact with the display screen; Contact range storage means for preliminarily storing the contact range of the operation means detected by the contact position detection means, and the operation image at the tip of the operation means located in front of the display screen A distance detection unit that detects a distance and a position from the display unit, and a distance of the tip of the operation unit detected by the distance detection unit is within a predetermined distance from the display screen, the position of the tip of the operation unit The operation image displayed at the display position on the display screen corresponding to is detected, the display range of the detected operation image is compared with the contact range stored in the contact range storage means, When the contact range is larger than the display range, the image processing unit includes control means for controlling the image processing means so as to enlarge and display the operation image displayed on the display screen.

本発明に係るタッチパネル操作装置によれば、操作用画像の表示範囲と操作手段の接触範囲とを比較し、接触範囲の方が操作用画像の表示範囲よりも大きい場合にのみ操作用画像を拡大表示させるので、操作用画像が複数配設されて各操作用画像が表示画面に小さく表示される場合であっても、操作者が誤操作するおそれが少なくなる。また、操作用画像の表示範囲が操作手段の接触範囲よりも大きい場合には、操作用画像が拡大表示されることはないので、拡大表示された操作用画像によって他の操作用画像が隠れてしまうという不都合を回避することができ、操作用画像の視認性を阻害することなく良好な操作性を維持することが可能となる。   According to the touch panel operation device according to the present invention, the display range of the operation image is compared with the contact range of the operation unit, and the operation image is enlarged only when the contact range is larger than the display range of the operation image. Thus, even if a plurality of operation images are arranged and each operation image is displayed small on the display screen, the operator is less likely to make an erroneous operation. Further, when the display range of the operation image is larger than the contact range of the operation means, the operation image is not displayed in an enlarged manner, and other operation images are hidden by the enlarged operation image. Therefore, it is possible to maintain good operability without impairing the visibility of the operation image.

以下、本発明に係るタッチパネル操作装置を、図面を用いて詳細に説明する。   Hereinafter, a touch panel operating device according to the present invention will be described in detail with reference to the drawings.

図1は、タッチパネル操作装置1の構成を示すブロック図である。タッチパネル操作装置1は、ディスプレイ部(表示手段)2と、画像処理部(画像処理手段)3と、記憶部(画像情報記憶手段、接触範囲記憶手段)4と、タッチ式の入力部(接触状態判断手段)5と、タッチ位置検出部(接触位置検出手段)6と、超音波センサ(距離検出手段)7と、CPU(制御手段)8とを備えている。   FIG. 1 is a block diagram showing a configuration of the touch panel operating device 1. The touch panel operating device 1 includes a display unit (display unit) 2, an image processing unit (image processing unit) 3, a storage unit (image information storage unit, contact range storage unit) 4, and a touch-type input unit (contact state). A determination unit) 5, a touch position detection unit (contact position detection unit) 6, an ultrasonic sensor (distance detection unit) 7, and a CPU (control unit) 8.

ディスプレイ部2は、画像処理部3により制御されており、画像処理部3より受信した画像情報に基づいて、例えば、図2に示すような表示画像2bをディスプレイ画面(表示画面)2aに表示する。なお、ディスプレイ画面2aに表示される表示画像2bは、操作者が指又はスタイラスペン等の操作手段を用いて操作を行う場合に必要とされる操作ボタン、アイコン等2cの複数の操作用画像により構成される。   The display unit 2 is controlled by the image processing unit 3, and displays a display image 2b as shown in FIG. 2 on the display screen (display screen) 2a based on the image information received from the image processing unit 3, for example. . The display image 2b displayed on the display screen 2a is composed of a plurality of operation images such as operation buttons and icons 2c required when the operator performs an operation using an operation means such as a finger or a stylus pen. Composed.

記憶部4には、操作ボタン等の操作用画像及び表示画像の作成に必要とされる他の画像データ等が記憶されており、操作ボタン等は、操作ボタン等毎に異なるサイズの同一画像、具体的には、通常サイズの操作ボタン等と拡大サイズの操作ボタン等との画像データがそれぞれ記憶されている。また、記憶部4には、操作者の指やスタイラスペン等の操作手段の先端の接触面積(接触範囲)を予め記憶させておくことが可能である。   The storage unit 4 stores operation images such as operation buttons and other image data necessary for creating a display image, and the operation buttons and the like are the same image having a different size for each operation button and the like. Specifically, image data of a normal size operation button or the like and an enlarged size operation button or the like are stored. Further, the storage unit 4 can store in advance the contact area (contact range) of the tip of the operation means such as the operator's finger or stylus pen.

画像処理部3は、CPU8の指示に従って、記憶部4に記憶された複数の操作用画像より特定の操作ボタン、アイコン等の画像データを抽出し、操作ボタンの大きさ、配列等を考慮してディスプレイ画面2aに表示させる表示画像を作成する。画像処理部3では、作成された表示画像の操作ボタン、アイコン等の配置位置を把握している。   The image processing unit 3 extracts image data such as specific operation buttons and icons from a plurality of operation images stored in the storage unit 4 in accordance with an instruction from the CPU 8, and considers the size and arrangement of the operation buttons. A display image to be displayed on the display screen 2a is created. The image processing unit 3 grasps the arrangement positions of operation buttons, icons, and the like of the created display image.

入力部5は、ディスプレイ画面2a上に指又はスタイラスペン等が接触した場合、接触したディスプレイ画面2a上の接触位置を座標情報として検出し、タッチ位置検出部6に出力する。入力部5は、ディスプレイ画面2aの下に配置されて圧力の変化を検出することにより接触位置を検出するタイプであってもよく、また、専用の透明なスクリーンでディスプレイ画面の表面を覆うように設置されて、圧力の変化を感知(感圧式)したり、静電気による電気信号を感知(静電式)したりすることにより接触位置を検出するタイプであってもよい。   When a finger or a stylus pen touches the display screen 2a, the input unit 5 detects the contact position on the display screen 2a as coordinate information and outputs it to the touch position detection unit 6. The input unit 5 may be of a type that is disposed below the display screen 2a and detects a contact position by detecting a change in pressure, and covers the surface of the display screen with a dedicated transparent screen. It may be of a type that detects a contact position by sensing pressure change (pressure sensitive) or sensing an electric signal due to static electricity (electrostatic).

タッチ位置検出部6は、入力部5において指又はスタイラスペン等の接触が検出された場合に、入力部5より受信した座標情報に基づいて、接触されたディスプレイ画面2a上の位置を求め、接触面積(接触範囲)を算出する。算出された位置情報及び面積情報は、CPU8に伝達される。   The touch position detection unit 6 obtains the touched position on the display screen 2a based on the coordinate information received from the input unit 5 when the input unit 5 detects contact with a finger or a stylus pen, The area (contact range) is calculated. The calculated position information and area information are transmitted to the CPU 8.

超音波センサ7は、図3に示すように、ディスプレイ画面2aの裏面に格子状に配設されて、ディスプレイ画面2aに対して垂直に超音波が射出される複数の超音波射出源7aを有しており、この超音波射出源7aより出射される超音波7bによって、ディスプレイ画面2aに接近する物体を検知し、その接近距離を検出する。なお、図3には、便宜上6個の超音波射出源7aしか示されていないが、実際にはディスプレイ画面2aの全面より超音波7bが射出されるように多数設置される。   As shown in FIG. 3, the ultrasonic sensor 7 has a plurality of ultrasonic emission sources 7a that are arranged in a grid pattern on the back surface of the display screen 2a and emit ultrasonic waves perpendicular to the display screen 2a. An object approaching the display screen 2a is detected by the ultrasonic wave 7b emitted from the ultrasonic wave emission source 7a, and the approach distance is detected. Although only six ultrasonic emission sources 7a are shown in FIG. 3 for the sake of convenience, a large number of ultrasonic waves 7b are actually installed so as to be emitted from the entire surface of the display screen 2a.

CPU8は、タッチパネル操作装置1の各種制御を行う役割を有しており、超音波センサ7により検出される近接物体の距離変化、タッチ位置検出部6により検出される位置情報及び面積情報、画像処理部3で作成された表示画像における操作ボタン等の配置位置状況及び各操作ボタン等の割り当て処理内容に関する情報を受信する。CPU8は、受信した各種情報に基づいて、ディスプレイ部2に表示される操作ボタン等の変更等を画像処理部3に指示し、ディスプレイ部2に表示される操作ボタン等の大きさ等を変更させる。   The CPU 8 has a role of performing various controls of the touch panel operating device 1, and includes a distance change of a proximity object detected by the ultrasonic sensor 7, position information and area information detected by the touch position detection unit 6, and image processing. The information about the arrangement position situation of the operation buttons and the like and the allocation processing contents of each operation button and the like in the display image created by the unit 3 is received. The CPU 8 instructs the image processing unit 3 to change the operation buttons and the like displayed on the display unit 2 based on the received various information, and changes the size and the like of the operation buttons and the like displayed on the display unit 2. .

以下に、CPU8による処理を、フローチャートを用いて説明する。   Below, the process by CPU8 is demonstrated using a flowchart.

図4は、システムの初期設定時の処理を示したフローチャートである。   FIG. 4 is a flowchart showing processing at the time of initial setting of the system.

システムの初期設定処理は、タッチパネル操作装置1の記憶部4に操作手段の先端の接触面積情報が記憶されていない場合、及び操作者が接触面積情報を変更する場合等に実行される処理である。   The initial setting process of the system is a process that is executed when the contact area information of the tip of the operation means is not stored in the storage unit 4 of the touch panel operation device 1 or when the operator changes the contact area information. .

システムの初期設定処理において、CPU8は、図5に示すような初期設定用画面を画像処理部3に作成させて、ディスプレイ部2に表示させる(ステップS.1)。初期設定画面には、操作者の指やスタイラスペン等の操作手段の先端を接触させるための接触エリア2dが表示される。   In the initial setting process of the system, the CPU 8 causes the image processing unit 3 to create an initial setting screen as shown in FIG. 5 and display it on the display unit 2 (step S.1). On the initial setting screen, a contact area 2d for bringing the operator's finger or the tip of an operation means such as a stylus pen into contact is displayed.

操作者が操作手段を操作し操作手段の先端をディスプレイ画面2aの接触エリア2dに接触させると、入力部5が操作手段の接触位置の座標情報を検出し、タッチ位置検出部6が具体的な位置情報及び面積情報を算出してCPU8に伝達する。   When the operator operates the operation means to bring the tip of the operation means into contact with the contact area 2d of the display screen 2a, the input unit 5 detects the coordinate information of the contact position of the operation means, and the touch position detection unit 6 is specific. The position information and area information are calculated and transmitted to the CPU 8.

CPU8は、位置情報及び面積情報をタッチ位置検出部6より受信した場合(ステップS.2のYESの場合)、受信した面積情報を操作手段の先端の接触面積情報として記憶部4に記憶し(ステップS.3)、システムの初期設定処理を終了する。位置情報及び面積情報をタッチ位置検出部6より受信しなかった場合(ステップS.2のNOの場合)、CPUは初期設定用画面を表示させ続ける(ステップS.1)。   CPU8 memorize | stores the received area information in the memory | storage part 4 as contact area information of the front-end | tip of an operating means, when position information and area information are received from the touch position detection part 6 (in the case of YES of step S.2) ( Step S.3), the system initial setting process is terminated. When the position information and the area information are not received from the touch position detection unit 6 (NO in step S.2), the CPU continues to display the initial setting screen (step S.1).

次に、通常のタッチパネル操作おけるCPU8の処理について、図6に示すフローチャートを用いて説明を行う。   Next, processing of the CPU 8 in normal touch panel operation will be described using the flowchart shown in FIG.

まず、CPU8は、ディスプレイ部2に表示させる表示画像を画像処理部3に作成させて、ディスプレイ画面2aに表示させる(ステップS.10)。なお、最初に作成される表示画像は、通常サイズの操作ボタン等を用いて作成される。   First, the CPU 8 causes the image processing unit 3 to create a display image to be displayed on the display unit 2 and display it on the display screen 2a (step S.10). The display image created first is created using a normal size operation button or the like.

操作者が、ディスプレイ画面2a方向に操作手段を近づけて、ディスプレイ画面2aから操作手段先端までの距離が一定距離以内となった場合、超音波センサ7は、操作手段の存在を検出し、接近距離をCPU8に伝達する。   When the operator brings the operating means closer to the display screen 2a and the distance from the display screen 2a to the tip of the operating means is within a certain distance, the ultrasonic sensor 7 detects the presence of the operating means, and the approach distance Is transmitted to the CPU 8.

超音波センサ7より接近距離を受信した場合(ステップS.11のYESの場合)、CPU8は、超音波センサ7より受信した接近距離が予め規定される閾値以下であるか否かの判断を行う(ステップS.12)。この閾値はタッチパネル操作装置1が利用される用途等によって異なる値を設定することができる。CPU8は、接近距離が閾値以上である場合(閾値よりも離れている場合)には(ステップS.12のNOの場合)、通常サイズの操作ボタン等を用いて作成された表示画像が引き続きディスプレイ部2に表示されるように、画像処理部3を制御する(ステップS.13)。   When the approach distance is received from the ultrasonic sensor 7 (in the case of YES at step S.11), the CPU 8 determines whether or not the approach distance received from the ultrasonic sensor 7 is equal to or less than a predetermined threshold value. (Step S.12). This threshold value can be set to a different value depending on the application for which the touch panel operating device 1 is used. If the approach distance is equal to or greater than the threshold (if the distance is greater than the threshold) (NO in step S.12), the CPU 8 continues to display the display image created using the normal size operation button or the like. The image processing unit 3 is controlled so as to be displayed on the unit 2 (step S.13).

接近距離が閾値以下の場合(閾値よりも近づいている場合)(ステップS.12のYESの場合)、CPU8は、超音波センサ7が検出した操作手段の位置を、格子状に配設された超音波射出源7aの設置位置(射出源7a毎に割り振られたセンサ番号毎の設置位置情報)より判断する(ステップS.14)。そして、CPU8は、検出された操作手段の位置に該当するディスプレイ画面2a上の位置を算出し(ステップS.15)、算出されたディスプレイ画面2a上に表示される操作ボタン等の表示面積の大きさと、記憶部4に記憶されている操作手段の接触面積の大きさとを比較する(ステップS.16)。   When the approach distance is equal to or smaller than the threshold value (when approaching the threshold value) (in the case of YES at step S.12), the CPU 8 has arranged the positions of the operation means detected by the ultrasonic sensor 7 in a grid pattern. Judgment is made from the installation position of the ultrasonic emission source 7a (installation position information for each sensor number assigned to each emission source 7a) (step S.14). Then, the CPU 8 calculates the position on the display screen 2a corresponding to the detected position of the operation means (step S.15), and the display area of the operation buttons and the like displayed on the calculated display screen 2a is large. And the size of the contact area of the operating means stored in the storage unit 4 is compared (step S.16).

操作ボタン等の表示面積が接触面積よりも大きい場合(ステップS.16のYESの場合)、CPU8は、通常サイズの操作ボタン等を用いて作成された表示画像が引き続きディスプレイ部2に表示されるように、画像処理部3を制御する(ステップS.13)。例えば、図7(a)左図に示される表示画像において、操作者の指11が閾値以下の距離までディスプレイ画面2aの操作ボタン9aに近づいた場合、CPU8は、操作ボタン9aの表示面積が指11の接触面積よりも大きいと判断して、図7(a)右図に示すように表示画像をそのまま(通常サイズの操作ボタン等を用いて作成された表示画像)表示させ続ける。   When the display area of the operation button or the like is larger than the contact area (YES in step S.16), the CPU 8 continues to display the display image created using the normal size operation button or the like on the display unit 2. In this manner, the image processing unit 3 is controlled (step S.13). For example, in the display image shown in the left diagram of FIG. 7A, when the operator's finger 11 approaches the operation button 9a on the display screen 2a to a distance equal to or less than the threshold, the CPU 8 indicates that the display area of the operation button 9a is It is determined that the contact area is larger than 11, and the display image continues to be displayed as it is (display image created using a normal size operation button) as shown in the right diagram of FIG.

一方で、操作ボタン等の表示面積が接触面積よりも小さい場合(ステップS.16のNOの場合)、CPU8は、該当するディスプレイ画面2a上の位置の操作ボタンが拡大サイズの操作ボタン等に置き換えられた表示画像を、ディスプレイ部2に表示させるように画像処理部3を制御する(ステップS.17)。例えば、図7(b)左図に示す表示画面において、操作者の指11が閾値以下の距離までディスプレイ画面2aの操作ボタン等9bに近づいた場合、CPU8は、操作ボタン9bの表示面積が指11の先端の接触面積よりも小さいと判断して、図7(b)右図に示すように操作ボタン9bを拡大表示させる。   On the other hand, when the display area of the operation button or the like is smaller than the contact area (NO in step S.16), the CPU 8 replaces the operation button at the position on the corresponding display screen 2a with an operation button of an enlarged size or the like. The image processing unit 3 is controlled to display the displayed image on the display unit 2 (step S.17). For example, when the operator's finger 11 approaches the operation button 9b or the like 9b on the display screen 2a to a distance equal to or less than the threshold on the display screen shown in the left diagram of FIG. Therefore, the operation button 9b is enlarged and displayed as shown in the right figure of FIG.

その後、操作手段がディスプレイ画面2bに接触した場合(ステップS18のYESの場合)、CPU8は、入力部5及びタッチ位置検出部6を通して操作手段の接触位置を位置情報として受信し、受信した位置情報より求められるディスプレイ画面2a上の座標位置より当該座標位置に表示される操作ボタン等を特定し(ステップS.19)、当該操作ボタン等に割り当てられる処理を実行する(ステップS.20)。なお、操作ボタン等が拡大表示されている場合には、拡大サイズの操作ボタン等により作成された表示画像に基づいて接触位置に対応する操作ボタン等を求めて、該当する操作ボタン等に割り当てられた処理を実行する。操作手段がディスプレイ画面2bに接触しなかった場合(ステップS18のNOの場合)、CPU8は、超音波センサ7より接近距離を受信したか否かの判断(ステップS.11)を繰り返し行う。   Thereafter, when the operation means comes into contact with the display screen 2b (in the case of YES at step S18), the CPU 8 receives the contact position of the operation means as position information through the input unit 5 and the touch position detection unit 6, and receives the received position information. An operation button or the like displayed at the coordinate position is specified from the coordinate position on the display screen 2a obtained more (step S.19), and processing assigned to the operation button or the like is executed (step S.20). When an operation button or the like is displayed in an enlarged manner, an operation button or the like corresponding to the contact position is obtained based on a display image created by an operation button or the like of an enlarged size and assigned to the corresponding operation button or the like. Execute the process. If the operating means has not touched the display screen 2b (NO in step S18), the CPU 8 repeatedly determines whether or not an approach distance has been received from the ultrasonic sensor 7 (step S.11).

このように、操作ボタン等の表示面積と操作手段の接触面積とを比較し、接触面積の方が操作ボタン等の表示面積よりも大きい場合にのみ操作ボタン等を拡大表示させることによって、操作ボタン等が複数配設されて各操作ボタン等が小さく表示される場合であっても、操作者が誤操作するおそれが少なくなる。また、操作ボタンの表示面積が操作手段の接触面積よりも大きい場合には、操作ボタン等が拡大表示されることはないので、拡大表示された操作ボタン等によって他の操作ボタン等が隠れてしまうという不都合を回避することができ、操作ボタン等の視認性を阻害することなく良好な操作性を維持することが可能となる。   In this way, by comparing the display area of the operation button and the contact area of the operation means, the operation button is enlarged and displayed only when the contact area is larger than the display area of the operation button, etc. Even when a plurality of buttons are arranged and the operation buttons are displayed in a small size, the operator is less likely to perform an erroneous operation. Further, when the display area of the operation button is larger than the contact area of the operation means, the operation button or the like is not displayed in an enlarged manner, so that the other operation button or the like is hidden by the enlarged operation button or the like. Inconveniences such as these can be avoided, and good operability can be maintained without impairing the visibility of the operation buttons and the like.

さらに、操作ボタン等に割り当てられる処理の重要度等に応じて操作ボタン等の大きさを他の操作ボタン等よりも大きく表示させている場合などにおいては、表示サイズが小さくて重要度が低い操作ボタン等に操作手段が接近したときだけ該当する操作ボタンが拡大表示され、他の小さい操作ボタンは拡大表示されないので、不用意に小さい操作ボタンが複数拡大表示されるおそれがなく、重要度の高い操作ボタン等の顕著性を維持することが可能となる。   In addition, when the size of the operation button, etc. is displayed larger than other operation buttons according to the importance of the processing assigned to the operation button, etc., the operation with a small display size and low importance The corresponding operation button is enlarged and displayed only when the operation means approaches the button, etc., and other small operation buttons are not enlarged, so there is no possibility that a plurality of small operation buttons will be inadvertently enlarged, and the importance is high. It becomes possible to maintain the saliency of the operation buttons and the like.

以上、本発明に係るタッチパネル操作装置について、図面を用いて説明を行ったが、本発明に係るタッチパネル操作装置は上述したものに限定されるものではない。例えば、上述した実施例では、超音波センサ7を用いて操作手段の接近状況を検出したが、操作手段の接近を感知することが可能なセンサであれば、超音波センサ7以外のセンサを用いてもよい。   Although the touch panel operation device according to the present invention has been described with reference to the drawings, the touch panel operation device according to the present invention is not limited to the above-described one. For example, in the above-described embodiment, the approaching state of the operation unit is detected using the ultrasonic sensor 7, but a sensor other than the ultrasonic sensor 7 is used as long as the sensor can sense the approach of the operation unit. May be.

例えば、図8に示すように、ディスプレイ画面2aの前面に赤外線センサ10をパネル面に平行に設置し、この赤外線センサ10より赤外線10aをディスプレイ前面2aに格子状に走らせるような構成としても良い。このように構成することによって、操作手段(図8に示す操作者の指11)が赤外線を遮断することにより操作手段が赤外線センサ設置位置まで接近したことを検出することができ、さらに、操作手段の接近位置を特定することが可能となる。   For example, as shown in FIG. 8, an infrared sensor 10 may be installed in front of the display screen 2a in parallel to the panel surface, and the infrared sensor 10 may be run from the infrared sensor 10 on the display front surface 2a in a grid pattern. . With this configuration, it is possible to detect that the operating means (the operator's finger 11 shown in FIG. 8) has approached the infrared sensor installation position by blocking infrared rays, and further, the operating means. It is possible to specify the approaching position.

本発明に係るタッチパネル操作装置の概略構成を示したブロック図である。It is the block diagram which showed schematic structure of the touchscreen operating device which concerns on this invention. 操作用画像により作成された表示画像を示した図である。It is the figure which showed the display image produced with the image for operation. ディスプレイ部に設けられる超音波センサの設置状況を模式的に示した図である。It is the figure which showed typically the installation condition of the ultrasonic sensor provided in a display part. システムの初期設置時にCPUが行う処理を示したフローチャートである。It is the flowchart which showed the process which CPU performs at the time of the initial installation of a system. システムの初期設定画面を示した図である。It is the figure which showed the initial setting screen of the system. 通常のタッチパネル操作おいてCPUが行う処理を示したフローチャートである。It is the flowchart which showed the process which CPU performs in normal touch panel operation. 操作者の指の接近に応じて表示される表示画面を示した図であって、(a)は通常サイズの操作ボタンを用いて作成した表示画面がそのまま表示される状態を示し、(b)は、拡大サイズの操作ボタンを用いて作成した表示画面に変更表示される状態を示したものである。It is the figure which showed the display screen displayed according to an operator's finger | toe's approach, Comprising: (a) shows the state as which the display screen produced using the operation button of normal size is displayed as it is, (b) Shows a state of being changed and displayed on the display screen created using the enlarged size operation button. 赤外線センサが設けられたディスプレイ部を示した側面図である。It is the side view which showed the display part in which the infrared sensor was provided.

符号の説明Explanation of symbols

1 タッチパネル走査装置
2 ディスプレイ部(表示手段)
3 画像処理部(画像処理手段)
4 記憶部(画像情報記憶手段、接触範囲記憶手段)
5 入力部(接触状態判断手段)
6 タッチ位置検出部(接触位置検出手段)
7 超音波センサ(距離検出手段)
8 CPU(制御手段)
DESCRIPTION OF SYMBOLS 1 Touch panel scanning device 2 Display part (display means)
3 Image processing unit (image processing means)
4 storage unit (image information storage means, contact range storage means)
5 Input part (contact state judgment means)
6 Touch position detection unit (contact position detection means)
7 Ultrasonic sensor (distance detection means)
8 CPU (control means)

Claims (1)

操作用画像を表示画面に表示する表示手段と、
前記表示画面に表示させる複数の操作用画像を記憶する画像情報記憶手段と、
前記画像情報記憶手段に記憶される複数の操作用画像より特定の操作用画像を抽出して、前記表示画面に表示させるための表示画像を作成する画像処理手段と、
前記表示画面に接触した操作手段の有無を判断する接触状態判断手段と、
前記表示画面に前記操作手段が接触した場合に、当該操作手段が接触した前記表示画面上の接触位置及び接触範囲を検出する接触位置検出手段と、
前記接触位置検出手段により検出された前記操作手段の接触範囲を予め記憶する接触範囲記憶手段と、
前記表示画面の前面に位置する前記操作手段の先端の前記表示画面までの距離及び位置を検出する距離検出手段と、
前記距離検出手段により検出された前記操作手段の先端の距離が、前記表示画面より所定距離以内である場合には、前記操作手段の先端の位置に対応する表示画面上の表示位置に表示されている操作用画像を検出し、検出された操作用画像の表示範囲と前記接触範囲記憶手段に記憶される前記接触範囲との比較を行い、前記接触範囲が前記表示範囲よりも大きい場合には、前記表示画面に表示されている操作用画像を拡大表示させるように前記画像処理手段を制御する制御手段と
を備えることを特徴とするタッチパネル操作装置。
Display means for displaying an operation image on a display screen;
Image information storage means for storing a plurality of operation images to be displayed on the display screen;
Image processing means for extracting a specific operation image from a plurality of operation images stored in the image information storage means and creating a display image for display on the display screen;
Contact state determination means for determining the presence or absence of an operation means in contact with the display screen;
A contact position detection unit that detects a contact position and a contact range on the display screen that the operation unit is in contact with when the operation unit is in contact with the display screen;
Contact range storage means for preliminarily storing the contact range of the operation means detected by the contact position detection means;
Distance detecting means for detecting the distance and position of the tip of the operating means located in front of the display screen to the display screen;
When the distance of the tip of the operation means detected by the distance detection means is within a predetermined distance from the display screen, it is displayed at the display position on the display screen corresponding to the position of the tip of the operation means. A display range of the detected operation image is compared with the contact range stored in the contact range storage means, and when the contact range is larger than the display range, A touch panel operating device comprising: control means for controlling the image processing means so as to enlarge and display the operation image displayed on the display screen.
JP2004266347A 2004-09-14 2004-09-14 Touch panel operating device Pending JP2006085218A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004266347A JP2006085218A (en) 2004-09-14 2004-09-14 Touch panel operating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004266347A JP2006085218A (en) 2004-09-14 2004-09-14 Touch panel operating device

Publications (1)

Publication Number Publication Date
JP2006085218A true JP2006085218A (en) 2006-03-30

Family

ID=36163710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004266347A Pending JP2006085218A (en) 2004-09-14 2004-09-14 Touch panel operating device

Country Status (1)

Country Link
JP (1) JP2006085218A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280316A (en) * 2006-04-12 2007-10-25 Xanavi Informatics Corp Touch panel input device
JP2008058095A (en) * 2006-08-30 2008-03-13 Denso Corp Operator determiner and on-vehicle device equipped with operator determiner
JP2008181169A (en) * 2007-01-23 2008-08-07 Nec Corp Information processing apparatus and information processing method
WO2009123030A1 (en) * 2008-04-02 2009-10-08 京セラ株式会社 User interface generation device
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium
EP2431853A2 (en) 2010-09-17 2012-03-21 Funai Electric Co., Ltd. Character input device
JP2012153081A (en) * 2011-01-28 2012-08-16 Canon Inc Information processing apparatus, method of controlling the same, and program
WO2012132802A1 (en) * 2011-03-28 2012-10-04 富士フイルム株式会社 Touch panel device, display method therefor, and display program
JP2013149049A (en) * 2012-01-19 2013-08-01 Kyocera Corp Touch panel type input device
JP2017146664A (en) * 2016-02-15 2017-08-24 株式会社Soken Position detection device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683537A (en) * 1992-09-01 1994-03-25 Ricoh Co Ltd Touch panel type information processor
JPH0887380A (en) * 1994-09-19 1996-04-02 Tabai Espec Corp Operating body adaptive console panel device
JP2003005912A (en) * 2001-06-20 2003-01-10 Hitachi Ltd Display device with touch panel and display method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683537A (en) * 1992-09-01 1994-03-25 Ricoh Co Ltd Touch panel type information processor
JPH0887380A (en) * 1994-09-19 1996-04-02 Tabai Espec Corp Operating body adaptive console panel device
JP2003005912A (en) * 2001-06-20 2003-01-10 Hitachi Ltd Display device with touch panel and display method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280316A (en) * 2006-04-12 2007-10-25 Xanavi Informatics Corp Touch panel input device
JP2008058095A (en) * 2006-08-30 2008-03-13 Denso Corp Operator determiner and on-vehicle device equipped with operator determiner
JP2008181169A (en) * 2007-01-23 2008-08-07 Nec Corp Information processing apparatus and information processing method
JP5406176B2 (en) * 2008-04-02 2014-02-05 京セラ株式会社 User interface generation device
WO2009123030A1 (en) * 2008-04-02 2009-10-08 京セラ株式会社 User interface generation device
US9134972B2 (en) 2008-04-02 2015-09-15 Kyocera Corporation User interface generation apparatus
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium
EP2431853A2 (en) 2010-09-17 2012-03-21 Funai Electric Co., Ltd. Character input device
JP2012153081A (en) * 2011-01-28 2012-08-16 Canon Inc Information processing apparatus, method of controlling the same, and program
WO2012132802A1 (en) * 2011-03-28 2012-10-04 富士フイルム株式会社 Touch panel device, display method therefor, and display program
JPWO2012132802A1 (en) * 2011-03-28 2014-07-28 富士フイルム株式会社 Touch panel device, display method thereof, and display program
JP5654118B2 (en) * 2011-03-28 2015-01-14 富士フイルム株式会社 Touch panel device, display method thereof, and display program
JP2013149049A (en) * 2012-01-19 2013-08-01 Kyocera Corp Touch panel type input device
JP2017146664A (en) * 2016-02-15 2017-08-24 株式会社Soken Position detection device

Similar Documents

Publication Publication Date Title
US10007382B2 (en) Information processing apparatus and information processing method
JP5158014B2 (en) Display control apparatus, display control method, and computer program
JP5832784B2 (en) Touch panel system and electronic device using the same
US8976131B2 (en) Information processing device, display control method, and program
EP2500813B1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US9916046B2 (en) Controlling movement of displayed objects based on user operation
US20140062875A1 (en) Mobile device with an inertial measurement unit to adjust state of graphical user interface or a natural language processing unit, and including a hover sensing function
JP5640486B2 (en) Information display device
JP2007280019A (en) Input device and computer system using the input device
KR20080050895A (en) Method and apparatus of gesture-based user interface
JP2011014044A (en) Apparatus and method for controlling operation and computer program
JP2013178636A (en) Information processor and control method of the same
US20100271301A1 (en) Input processing device
US20110285625A1 (en) Information processing apparatus and input method
EP2765489B1 (en) Information processing device, information processing method and computer program
US20130009880A1 (en) Apparatus and method for inputting character on touch screen
JP2006085218A (en) Touch panel operating device
JP2009098990A (en) Display device
JP5845585B2 (en) Information processing device
WO2016208099A1 (en) Information processing device, input control method for controlling input upon information processing device, and program for causing information processing device to execute input control method
KR101682527B1 (en) touch keypad combined mouse using thin type haptic module
CN104679312A (en) Electronic device as well as touch system and touch method of electronic device
KR101573287B1 (en) Apparatus and method for pointing in displaying touch position electronic device
JP2011204092A (en) Input device
JP5165624B2 (en) Information input device, object display method, and computer-executable program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110222