JP2021117907A - Display control device - Google Patents

Display control device Download PDF

Info

Publication number
JP2021117907A
JP2021117907A JP2020012679A JP2020012679A JP2021117907A JP 2021117907 A JP2021117907 A JP 2021117907A JP 2020012679 A JP2020012679 A JP 2020012679A JP 2020012679 A JP2020012679 A JP 2020012679A JP 2021117907 A JP2021117907 A JP 2021117907A
Authority
JP
Japan
Prior art keywords
touch
component
display control
touch panel
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020012679A
Other languages
Japanese (ja)
Inventor
有賢 土屋
Yuken Tsuchiya
有賢 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020012679A priority Critical patent/JP2021117907A/en
Publication of JP2021117907A publication Critical patent/JP2021117907A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a display control device capable of preventing erroneous operation when operating a touch panel by relying on tactile information by solving a problem in a touch panel which presents tactile information in which it is necessary to touch up and touch again to select the identified UI part when identifying a UI part based on the tactile information obtained by tracing the touch panel, which may cause a displacement of the touch position.SOLUTION: To prevent erroneous operation, it is configured so that, when operating the touch panel relying on tactile information on a UI part, an operation to push strongly a touch panel is required.SELECTED DRAWING: Figure 1

Description

本発明はタッチパネルおよび触覚提示装置を備えた表示制御装置に関する。 The present invention relates to a display control device including a touch panel and a tactile presentation device.

近年、ユーザに対して様々な触覚情報を提示可能なタッチパネルが提供されている。このようなタッチパネルの応用例として、タッチ位置に表示されているUI部品、そのUI部品の論理状態、およびタッチ圧力に応じて異なる触覚情報を提示する技術が開示されている(例えば、特許文献1参照)。係る技術によれば、ユーザはタッチパネルを注視しなくても、タッチパネルをなぞって得られた触覚情報を頼りにUI部品を識別することができる。 In recent years, a touch panel capable of presenting various tactile information to a user has been provided. As an application example of such a touch panel, a technique for presenting different tactile information according to a UI component displayed at a touch position, a logical state of the UI component, and a touch pressure is disclosed (for example, Patent Document 1). reference). According to such a technique, a user can identify a UI component by relying on tactile information obtained by tracing the touch panel without gazing at the touch panel.

特開2008−33739号公報Japanese Unexamined Patent Publication No. 2008-33739

一方、一般的なタッチパネルの操作でUI部品を選択するには、その部品上でタッチダウンし、部品外にムーブすることなく、その部品上でタッチアップする必要がある。タッチパネルをなぞってUI部品を識別した際、そのUI部品を選択するには一度タッチアップして再度タッチする必要があるため、タッチ位置が変わり誤操作につながる課題があった。 On the other hand, in order to select a UI component by a general touch panel operation, it is necessary to touch down on the component and touch up on the component without moving outside the component. When a UI component is identified by tracing the touch panel, it is necessary to touch up and touch again to select the UI component, so that there is a problem that the touch position changes and leads to an erroneous operation.

本発明は前記の問題を鑑みてなされたものであり、触覚情報に基づいてUI部品を識別可能な表示制御装置において、誤操作を低減することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to reduce erroneous operations in a display control device capable of identifying UI components based on tactile information.

前記目的を達成するため、本発明の表示制御装置は1つ以上のUI部品を含むUI画面を表示するタッチパネルであって、タッチ位置に対応するUI部品を特定する手段、タッチ圧を検知する手段、特定したUI部品に応じた触覚情報を提示する手段を備え、タッチ圧が一定以上となった時に前記特定したUI部品に応じた処理を実行することを特徴とする。 In order to achieve the above object, the display control device of the present invention is a touch panel that displays a UI screen including one or more UI components, and is a means for identifying a UI component corresponding to a touch position and a means for detecting a touch pressure. It is characterized in that it includes means for presenting tactile information corresponding to the specified UI component, and executes processing according to the specified UI component when the touch pressure exceeds a certain level.

本発明の表示制御装置によれば、ユーザが触覚情報に基づいてUI部品を識別した際、タッチアップ後に再度タッチすることなく前記UI部品を選択することができるため、誤操作が低減される。 According to the display control device of the present invention, when a user identifies a UI component based on tactile information, the UI component can be selected without touching again after touch-up, so that erroneous operation is reduced.

表示制御装置構成例。Display control device configuration example. GUI画面。GUI screen. UI部品の管理情報テーブル。UI component management information table. 実施例1におけるタッチ制御処理のフローチャート。The flowchart of the touch control process in Example 1. ユーザ操作の一例。An example of user operation. 実施例2におけるタッチ制御処理のフローチャート。The flowchart of the touch control process in Example 2.

[実施例1]
図1は、本発明の各実施形態を適用可能な表示制御装置100の一例の構成を示す。図1に示されるように、表示制御装置100は、一般的なパーソナルコンピュータ(以下、PC)を用いて構成可能なものである。
[Example 1]
FIG. 1 shows a configuration of an example of a display control device 100 to which each embodiment of the present invention can be applied. As shown in FIG. 1, the display control device 100 can be configured by using a general personal computer (hereinafter, PC).

図1において、内部バス111に対してCPU101、ハードディスク(HD)102、メモリ103、表示制御部104、入力部105および触覚制御部106が接続される。内部バス111に接続される各部は、内部バス111を介して互いにデータのやりとりを行うことができる。 In FIG. 1, a CPU 101, a hard disk (HD) 102, a memory 103, a display control unit 104, an input unit 105, and a tactile control unit 106 are connected to the internal bus 111. Each unit connected to the internal bus 111 can exchange data with each other via the internal bus 111.

ハードディスク102は、画像データやその他のデータ、CPU101が動作するための各種プログラムなどが格納される。メモリ103は、例えばRAMからなる。表示制御手段、変更手段および算出手段としてのCPU101は、例えばハードディスク102に格納されるプログラムに従い、メモリ103をワークメモリとして用いて、この表示制御装置100の各部を制御する。なお、CPU101が動作するためのプログラムは、ハードディスク102に格納されるのに限られず、例えば図示されないROMに予め記憶しておいてもよい。 The hard disk 102 stores image data, other data, various programs for operating the CPU 101, and the like. The memory 103 includes, for example, a RAM. The CPU 101 as a display control means, a change means, and a calculation means controls each part of the display control device 100 by using the memory 103 as a work memory according to a program stored in the hard disk 102, for example. The program for operating the CPU 101 is not limited to being stored in the hard disk 102, and may be stored in advance in, for example, a ROM (not shown).

表示制御部104は、ディスプレイ110に対して画像を表示させるための表示信号を出力する。例えば、表示制御部104に対して、CPU101がプログラムに従い生成した表示制御信号が供給される。表示制御部104は、この表示制御信号に基づき表示信号を生成してディスプレイ110に対して出力する。例えば、表示制御部104は、CPU101が生成する表示制御信号に基づき、GUI(Graphical User Interface)を構成するGUI画面をディスプレイ110に対して表示させる。 The display control unit 104 outputs a display signal for displaying an image on the display 110. For example, the display control signal generated by the CPU 101 according to the program is supplied to the display control unit 104. The display control unit 104 generates a display signal based on this display control signal and outputs it to the display 110. For example, the display control unit 104 causes the display 110 to display a GUI screen constituting a GUI (Graphical User Interface) based on a display control signal generated by the CPU 101.

入力部105は圧力センサを備えたタッチパネルであり、ユーザ操作を受け付け、操作に応じた制御信号を生成し、CPU101に供給する。タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報および接触の圧力が出力されるようにした入力デバイスである。CPU101は、入力デバイスに対してなされたユーザ操作に応じて入力部105で生成され供給される制御信号に基づき、プログラムに従いこの表示制御装置100の各部を制御する。これにより、表示制御装置100に対し、ユーザ操作に応じた動作を行わせることができる。 The input unit 105 is a touch panel provided with a pressure sensor, receives a user operation, generates a control signal according to the operation, and supplies the control signal to the CPU 101. The touch panel is, for example, an input device that outputs coordinate information and contact pressure according to the position of contact with an input unit configured in a plane. The CPU 101 controls each unit of the display control device 100 according to a program based on a control signal generated and supplied by the input unit 105 in response to a user operation performed on the input device. As a result, the display control device 100 can be made to perform an operation according to the user operation.

入力部105とディスプレイ110とは一体的に構成することができる。例えば、タッチパネルを光の透過率がディスプレイ110の表示を妨げないように構成し、ディスプレイ110の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、ディスプレイ110上の表示座標とを対応付ける。これにより、恰もユーザがディスプレイ110上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。 The input unit 105 and the display 110 can be integrally configured. For example, the touch panel is configured so that the light transmittance does not interfere with the display of the display 110, and is attached to the upper layer of the display surface of the display 110. Then, the input coordinates on the touch panel and the display coordinates on the display 110 are associated with each other. As a result, it is possible to configure the GUI as if the user can directly operate the screen displayed on the display 110.

CPU101はタッチパネルへの以下の操作を検出できる。タッチパネルを指やペンで触れたこと(以下、タッチダウンと称する)。タッチパネルを指やペンで触れている状態であること(以下、タッチオンと称する)。タッチパネルを指やペンで触れたまま移動していること(以下、ムーブと称する)。タッチパネルへ触れていた指やペンを離したこと(以下、タッチアップと称する)。タッチパネルに何も触れていない状態(以下、タッチオフと称する)。これらの操作や、タッチパネル上に指やペンが触れている位置座標は内部バス111を通じてCPU101に通知され、CPU101は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。 The CPU 101 can detect the following operations on the touch panel. Touching the touch panel with a finger or pen (hereinafter referred to as touchdown). The touch panel must be touched with a finger or pen (hereinafter referred to as touch-on). Moving while touching the touch panel with a finger or pen (hereinafter referred to as move). The finger or pen that was touching the touch panel was released (hereinafter referred to as touch-up). A state in which nothing is touched on the touch panel (hereinafter referred to as touch-off). These operations and the position coordinates of the finger or pen touching the touch panel are notified to the CPU 101 through the internal bus 111, and the CPU 101 determines what kind of operation is performed on the touch panel based on the notified information. .. Regarding the move, the moving direction of the finger or pen moving on the touch panel can also be determined for each vertical component and horizontal component on the touch panel based on the change in the position coordinates.

触覚制御部106は、CPU101がプログラムに従い生成した触覚制御信号に基づき、タッチパネルに接触したユーザの指やユーザの持つペンに対して触覚情報を提示する。触覚制御部106は、例えば触覚制御信号に基づいた波形でタッチパネルを振動させるように構成することができる。 The tactile control unit 106 presents tactile information to the user's finger or the user's pen in contact with the touch panel based on the tactile control signal generated by the CPU 101 according to the program. The tactile control unit 106 can be configured to vibrate the touch panel with a waveform based on, for example, a tactile control signal.

CPU101が生成する表示制御信号に基づきディスプレイ110に表示させるGUI画面の一例を図2に示す。図2はユーザの意図を確認するためのGUI画面であり、背景部201、確認内容を示す文字列部202、OKボタン203、およびキャンセルボタン204の4つのUI部品により構成される。それぞれのUI部品は、CPU101により実行されるプログラムにおいて、図3に示す管理情報によって管理される。符号311は背景部201に、符号312は文字列部202に、符号313はOKボタン203に、符号314はキャンセルボタン204に、それぞれ対応する管理情報である。 FIG. 2 shows an example of a GUI screen displayed on the display 110 based on the display control signal generated by the CPU 101. FIG. 2 is a GUI screen for confirming the user's intention, and is composed of four UI parts: a background portion 201, a character string portion 202 indicating the confirmation content, an OK button 203, and a cancel button 204. Each UI component is managed by the management information shown in FIG. 3 in the program executed by the CPU 101. Reference numeral 311 corresponds to the background portion 201, reference numeral 312 corresponds to the character string portion 202, reference numeral 313 corresponds to the OK button 203, and reference numeral 314 corresponds to the cancel button 204.

各UI部品の管理情報は、部品ID301、配置情報302、触覚情報303および選択時の処理304で構成される。部品ID301は該UI部品を一意に識別する整数値である。配置情報302は、GUI画面200の左上端を原点、右をX軸正方向、下をY軸正方向とするスクリーン座標系における該UI部品の配置を表す情報であり、top、bottom、left、right、z−orderからなる。topは前記スクリーン座標系における該UI部品の上端のY座標である。同様に、bottomは前記スクリーン座標系における該UI部品の下端のY座標、leftは前記スクリーン座標系における該UI部品の左端のX座標、rightは前記スクリーン座標系における該UI部品の右端のX座標である。z−orderはUI部品間の重なり順序を表す。触覚情報303は該UI部品にユーザが触れているときに触覚制御部106によって生成される振動の周波数と振幅であり、CPU101が本情報に基づいて触覚制御信号を生成し触覚制御部106に供給する。選択時の処理304は該UI部品がユーザによって選択されたときにCPU101によって実行されるプログラムである。 The management information of each UI component is composed of the component ID 301, the arrangement information 302, the tactile information 303, and the processing 304 at the time of selection. The component ID 301 is an integer value that uniquely identifies the UI component. The arrangement information 302 is information representing the arrangement of the UI parts in the screen coordinate system in which the upper left edge of the GUI screen 200 is the origin, the right is the positive direction of the X axis, and the bottom is the positive direction of the Y axis. It consists of right and z-order. top is the Y coordinate of the upper end of the UI component in the screen coordinate system. Similarly, bottom is the Y coordinate of the lower end of the UI component in the screen coordinate system, left is the X coordinate of the left end of the UI component in the screen coordinate system, and light is the X coordinate of the right end of the UI component in the screen coordinate system. Is. z-order represents the stacking order between UI parts. The tactile information 303 is the frequency and amplitude of the vibration generated by the tactile control unit 106 when the user is touching the UI component, and the CPU 101 generates a tactile control signal based on this information and supplies it to the tactile control unit 106. do. The process 304 at the time of selection is a program executed by the CPU 101 when the UI component is selected by the user.

次に、GUI画面を表示している表示制御装置100のタッチパネルにユーザがタッチダウンした際に、CPU101によって実行されるタッチ制御処理について、図4のフローチャートに従って説明する。 Next, the touch control process executed by the CPU 101 when the user touches down the touch panel of the display control device 100 displaying the GUI screen will be described with reference to the flowchart of FIG.

まず、CPU101は入力部105からユーザのタッチ座標を取得する(ステップS400)。タッチ座標は前記スクリーン座標系におけるX座標UxおよびY座標Uyとして得られる。次に、CPU101は前記ユーザのタッチ座標に対応するUI部品の部品ID301を特定する(ステップS401)。タッチ座標に対応するUI部品とは、配置情報302がtop≦Uy<bottomおよびleft≦Ux<rightの両方を満たすUI部品のなかで、z−orderの値が最も大きいものとする。ステップS401で得られた部品IDに対応する触覚情報303を用い、CPU101は触覚制御部106に対して触覚制御信号を供給する(ステップS402)。 First, the CPU 101 acquires the user's touch coordinates from the input unit 105 (step S400). The touch coordinates are obtained as the X coordinate Ux and the Y coordinate Uy in the screen coordinate system. Next, the CPU 101 identifies the component ID 301 of the UI component corresponding to the touch coordinates of the user (step S401). The UI component corresponding to the touch coordinates is defined to have the largest value of z-order among the UI components in which the arrangement information 302 satisfies both top ≦ Uy <bottom and left ≦ Ux <right. Using the tactile information 303 corresponding to the component ID obtained in step S401, the CPU 101 supplies the tactile control signal to the tactile control unit 106 (step S402).

次にCPU101は、ユーザがタッチアップしたか否かを判定する(ステップS403)。タッチアップしていた場合、CPU101は触覚制御部106による振動発生を停止させるよう触覚制御信号を供給し(ステップS404)、タッチ制御処理を終了する。タッチアップしていなかった場合、CPU101は入力部へのタッチ圧が一定以上か判断する(ステップS405)。一定以上でなかった場合はS400に戻り処理を繰り返し実行する。一定以上だった場合、CPU101は触覚制御部106による振動発生を停止させるよう触覚制御信号を供給する(ステップS406)。最後にCPU101はステップS401にて得られた部品IDに対応する選択時の処理304を実行し(ステップS407)、タッチ制御処理を終了する。 Next, the CPU 101 determines whether or not the user has touched up (step S403). When touching up, the CPU 101 supplies a tactile control signal so as to stop the vibration generation by the tactile control unit 106 (step S404), and ends the touch control process. If the touch-up is not performed, the CPU 101 determines whether the touch pressure on the input unit is equal to or higher than a certain level (step S405). If it is not above a certain level, the process returns to S400 and the process is repeated. If it exceeds a certain level, the CPU 101 supplies a tactile control signal so as to stop the vibration generation by the tactile control unit 106 (step S406). Finally, the CPU 101 executes the selection process 304 corresponding to the component ID obtained in step S401 (step S407), and ends the touch control process.

図5に示すユーザ操作の一例に沿って、上記タッチ制御処理の具体例を説明する。図5は、ユーザがGUI画面200の(a)点にタッチダウンし、(b)点(c)点(d)点の順にムーブし、(d)点でタッチパネルを強く押し込んだことを表す。ユーザはOKボタン203に触れている間は高周波の振動が感じられること、キャンセルボタン204に触れている間は低周波の振動が感じられること、それ以外の位置に触れている間は振動が感じられないことを知っており、キャンセルボタン204を選択するべくタッチ操作を行うものとする。 A specific example of the touch control process will be described with reference to an example of the user operation shown in FIG. FIG. 5 shows that the user touches down to the point (a) on the GUI screen 200, moves in the order of the points (b), (c), and (d), and strongly presses the touch panel at the point (d). The user feels high-frequency vibration while touching the OK button 203, low-frequency vibration while touching the cancel button 204, and vibration while touching other positions. Knowing that this is not possible, it is assumed that a touch operation is performed to select the cancel button 204.

まずユーザが(a)点にタッチダウンしたことにより、CPU101はタッチ制御処理を開始する。タッチ座標が(a)点である時、ステップS401において得られる部品ID301の値は「0」となり、対応する触覚情報303は「なし」であるため触覚制御部106は振動を発生させない。ユーザは振動が発生していないことをもって、現在のタッチ座標がOKボタン203でもキャンセルボタン204でもないことを判断できる。 First, when the user touches down to the point (a), the CPU 101 starts the touch control process. When the touch coordinate is the point (a), the value of the component ID 301 obtained in step S401 is "0", and the corresponding tactile information 303 is "none", so that the tactile control unit 106 does not generate vibration. The user can determine that the current touch coordinates are neither the OK button 203 nor the cancel button 204 because no vibration is generated.

ユーザがムーブ操作を行いタッチ座標が(b)点に達すると、ステップS401において得られる部品ID301の値は「2」となり、対応する触覚情報303に基づいた高周波の振動が触覚制御部106によって発生される。ユーザは高周波の振動を感知することで、現在のタッチ座標がOKボタン203であることを判断できる。 When the user performs a move operation and the touch coordinates reach point (b), the value of the component ID 301 obtained in step S401 becomes "2", and high-frequency vibration based on the corresponding tactile information 303 is generated by the tactile control unit 106. Will be done. By sensing the high frequency vibration, the user can determine that the current touch coordinates are the OK button 203.

さらにユーザがムーブ操作を行いタッチ座標が(c)点に達すると、ステップS401において得られる部品ID301の値は再び「0」となり、対応する触覚情報303は「なし」であるため触覚制御部106は振動を発生させない。ユーザは振動が感知されなくなったことをもって、タッチ座標がOKボタン203から外れたことを判断できる。 Further, when the user performs a move operation and the touch coordinates reach the point (c), the value of the component ID 301 obtained in step S401 becomes "0" again, and the corresponding tactile information 303 is "none", so that the tactile control unit 106 Does not generate vibration. The user can determine that the touch coordinates have deviated from the OK button 203 when the vibration is no longer detected.

さらにユーザがムーブ操作を行いタッチ位置が(d)点に達すると、ステップS401において得られる部品ID301の値は「3」となり、対応する触覚情報303に基づいた低周波の振動が触覚制御部106によって発生される。ユーザは低周波の振動を感知することで、現在のタッチ座標がキャンセルボタン204であることを判断できる。 Further, when the user performs a move operation and the touch position reaches the point (d), the value of the component ID 301 obtained in step S401 becomes "3", and the low-frequency vibration based on the corresponding tactile information 303 is generated by the tactile control unit 106. Generated by. By sensing the low frequency vibration, the user can determine that the current touch coordinates are the cancel button 204.

所望のタッチ座標に達したと判断したユーザは、(d)点からムーブすることなくタッチパネルを強く押し込む操作をする。CPU101はステップS405でタッチアップされたことを判断し、S406にて触覚制御部106による振動発生を停止させ、ステップS407にて部品ID301の値「3」に対応する選択時の処理304である「キャンセル処理」を実行する。 The user who determines that the desired touch coordinates have been reached performs an operation of strongly pressing the touch panel without moving from the point (d). The CPU 101 determines that the touch-up has been performed in step S405, stops the vibration generation by the tactile control unit 106 in S406, and is the process 304 at the time of selection corresponding to the value "3" of the component ID 301 in step S407. Execute "cancellation process".

上記に示した通り、本発明を適用した実施形態では、ユーザが触覚情報に基づいてUI部品を識別した際、タッチアップ後に再度タッチすることなく前記UI部品を選択することができるため、誤操作が低減される。 As shown above, in the embodiment to which the present invention is applied, when the user identifies the UI component based on the tactile information, the UI component can be selected without touching again after the touch-up, so that an erroneous operation is performed. It will be reduced.

[実施例2]
実施例1に記載の表示制御装置では、ユーザがムーブ操作をし、あるUI部品から別のUI部品へとタッチ位置が変わった直後にタッチパネルを強く押し込む操作をした場合、後者のUI部品が選択されることになる。しかしユーザは後者のUI部品にタッチしたことを認識する前に強く押し込む操作をしている可能性があり、その場合はユーザの意図とは異なるUI部品が選択されることとなる。
[Example 2]
In the display control device according to the first embodiment, when the user performs a move operation and strongly presses the touch panel immediately after the touch position is changed from one UI component to another, the latter UI component is selected. Will be done. However, there is a possibility that the user presses strongly before recognizing that the latter UI component has been touched, and in that case, a UI component different from the user's intention is selected.

そこで前述の表示制御装置100に本発明を適用した他の実施形態として、あるUI部品から別のUI部品へとムーブした直後に強く押し込む操作をした場合の誤操作を低減したタッチ制御処理について述べる。実施例1と同様、CPU101が生成する表示制御信号に基づきディスプレイ110には図2のGUI画面200が表示される。GUI画面200を構成するUI部品は、CPU101によって実行されるプログラムにおいて、図3に示す管理情報によって管理される。 Therefore, as another embodiment in which the present invention is applied to the above-mentioned display control device 100, a touch control process that reduces erroneous operations when a strong pressing operation is performed immediately after moving from one UI component to another UI component will be described. Similar to the first embodiment, the GUI screen 200 of FIG. 2 is displayed on the display 110 based on the display control signal generated by the CPU 101. The UI components that make up the GUI screen 200 are managed by the management information shown in FIG. 3 in the program executed by the CPU 101.

GUI画面を表示している表示制御装置100のタッチパネルにユーザがタッチダウンした際に、CPU101によって実行されるタッチ制御処理について、図6のフローチャートに従って説明する。図6のフローチャートの多くのステップは、図4に示した実施例1におけるタッチ制御処理と一致する。一致するステップには同じ符号を付し、ここでは図6のフローチャートに特有のステップを中心に説明する。 The touch control process executed by the CPU 101 when the user touches down the touch panel of the display control device 100 displaying the GUI screen will be described with reference to the flowchart of FIG. Many steps in the flowchart of FIG. 6 correspond to the touch control process in the first embodiment shown in FIG. The matching steps are designated by the same reference numerals, and here, the steps specific to the flowchart of FIG. 6 will be mainly described.

まず、CPU101は入力部105からユーザのタッチ座標を取得し(ステップS400)、取得したタッチ座標に対応するUI部品の部品IDを特定する(ステップS401)。次に、CPU101は前記特定した部品IDが変わったか判定する(ステップS600)。タッチ制御処理を開始してから初めてステップS600を実行する場合はYesと判定する。ステップS600の実行が2回目以降の場合、前回実行時の部品UIと今回の部品UIが一致すればNo、不一致であればYesと判定する。ステップS600においてNoと判定した場合はステップS402に進み、Yesと判定した場合はステップS601において現在時刻を取得しステップS402に進む。ステップS402、ステップS403、ステップS404、ステップS405、ステップS406については実施例1にて説明した通りである。 First, the CPU 101 acquires the user's touch coordinates from the input unit 105 (step S400), and specifies the component ID of the UI component corresponding to the acquired touch coordinates (step S401). Next, the CPU 101 determines whether the specified component ID has changed (step S600). When the step S600 is executed for the first time after the touch control process is started, it is determined as Yes. When the execution of step S600 is performed for the second time or later, if the component UI at the previous execution and the component UI at this time match, it is determined as No, and if they do not match, it is determined as Yes. If it is determined as No in step S600, the process proceeds to step S402, and if it is determined as Yes, the current time is acquired in step S601 and the process proceeds to step S402. Step S402, step S403, step S404, step S405, and step S406 are as described in the first embodiment.

ステップS406の実行後、CPU101は現在時刻とステップS601で取得した時刻の差分を求め、差分が一定値(例えば500ミリ秒)以上であるかを判定する。一定値以上である場合、CPU101はステップS401にて得られた部品IDに対応する選択時の処理304を実行し(ステップS407)、タッチ制御処理を終了する。一定値以上でない場合、タッチ制御処理を終了する。 After executing step S406, the CPU 101 obtains the difference between the current time and the time acquired in step S601, and determines whether the difference is a certain value (for example, 500 milliseconds) or more. If it is equal to or higher than a certain value, the CPU 101 executes the selection process 304 corresponding to the component ID obtained in step S401 (step S407), and ends the touch control process. If it is not more than a certain value, the touch control process is terminated.

上記に示した通り、本実施形態では、ユーザが触覚情報に基づいてUI部品を識別した際、タッチアップ後に再度タッチすることなく前記UI部品を選択することができるため、誤操作が低減される。また、UI部品にタッチした状態での経過時間が短い場合には強く押し込む操作をした時に前記UI部品に対応した処理を実行しないため、あるUI部品から別のUI部品へとムーブした直後に強く押し込む操作をした場合の誤操作を低減することができる。 As shown above, in the present embodiment, when the user identifies the UI component based on the tactile information, the UI component can be selected without touching again after touching up, so that erroneous operation is reduced. In addition, if the elapsed time while touching a UI component is short, the process corresponding to the UI component is not executed when a strong push operation is performed, so that the UI component is strongly pushed immediately after being moved to another UI component. It is possible to reduce erroneous operations when the pushing operation is performed.

100 表示制御装置
101 CPU
102 ハードディスク
103 メモリ
104 表示制御部
105 入力部
106 触覚制御部
110 ディスプレイ
111 内部バス
200 GUI画面
201 背景部
202 文字列部
203 OKボタン
204 キャンセルボタン
100 Display control device 101 CPU
102 Hard disk 103 Memory 104 Display control unit 105 Input unit 106 Tactile control unit 110 Display 111 Internal bus 200 GUI screen 201 Background unit 202 Character string unit 203 OK button 204 Cancel button

Claims (3)

1つ以上のUI部品を含むUI画面を表示する表示制御装置であって、タッチパネル、タッチ位置に対応するUI部品を特定する手段、タッチ圧を検出する手段、特定したUI部品に応じた触覚情報を提示する手段を備え、タッチ圧が一定以上となった時に前記特定したUI部品に応じた処理を実行することを特徴とする表示制御装置。 A display control device that displays a UI screen containing one or more UI components, such as a touch panel, a means for identifying a UI component corresponding to a touch position, a means for detecting a touch pressure, and tactile information corresponding to the specified UI component. A display control device comprising means for presenting the above, and performing processing according to the specified UI component when the touch pressure exceeds a certain level. 請求項1に記載の表示制御装置であって、タッチ圧が一定以上となった時に前記特定したUI部品に応じた処理を実行するか否かを、タッチ操作の履歴に基づいて判断することを特徴とする表示制御装置。 The display control device according to claim 1 determines whether or not to execute a process according to the specified UI component when the touch pressure exceeds a certain level, based on the history of touch operations. A characteristic display control device. 請求項2に記載の表示制御装置であって、前記タッチ操作の履歴とは前記特定したUI部品にタッチしていた時間の長さであることを特徴とする表示制御装置。
The display control device according to claim 2, wherein the history of the touch operation is the length of time that the specified UI component has been touched.
JP2020012679A 2020-01-29 2020-01-29 Display control device Pending JP2021117907A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012679A JP2021117907A (en) 2020-01-29 2020-01-29 Display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012679A JP2021117907A (en) 2020-01-29 2020-01-29 Display control device

Publications (1)

Publication Number Publication Date
JP2021117907A true JP2021117907A (en) 2021-08-10

Family

ID=77175014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012679A Pending JP2021117907A (en) 2020-01-29 2020-01-29 Display control device

Country Status (1)

Country Link
JP (1) JP2021117907A (en)

Similar Documents

Publication Publication Date Title
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
KR100830467B1 (en) Display device having touch pannel and Method for processing zoom function of display device thereof
TWI428812B (en) Method for controlling application program, electronic device thereof, recording medium thereof, and computer program product using the method
WO2003104967A1 (en) Information processing method for specifying an arbitrary point in 3-dimensional space
US20110216015A1 (en) Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions
US20100328236A1 (en) Method for Controlling a Computer System and Related Computer System
JP5640486B2 (en) Information display device
JPWO2009031214A1 (en) Portable terminal device and display control method
JP2010224764A (en) Portable game machine with touch panel display
US10956030B2 (en) Multi-touch based drawing input method and apparatus
JP2010146032A (en) Mobile terminal device and display control method
US20120297336A1 (en) Computer system with touch screen and associated window resizing method
JP2019514097A (en) Method for inserting characters in a string and corresponding digital device
US20120218308A1 (en) Electronic apparatus with touch screen and display control method thereof
JP5848732B2 (en) Information processing device
JP4924164B2 (en) Touch input device
US20230359279A1 (en) Feedback method and related device
JP2013222263A (en) Information processing device, method for controlling the same, and computer program
JP2012099005A (en) Input device, input method, and input program
US20110285517A1 (en) Terminal apparatus and vibration notification method thereof
WO2013080425A1 (en) Input device, information terminal, input control method and input control program
JP2013196465A (en) User interface device for applying tactile response in object selection, tactile response application method and program
JP2021117907A (en) Display control device
JP2011100385A (en) Display device, method, and program
KR101682527B1 (en) touch keypad combined mouse using thin type haptic module