JP5237980B2 - Coordinate input device, coordinate input method, and computer executable program - Google Patents

Coordinate input device, coordinate input method, and computer executable program Download PDF

Info

Publication number
JP5237980B2
JP5237980B2 JP2010048281A JP2010048281A JP5237980B2 JP 5237980 B2 JP5237980 B2 JP 5237980B2 JP 2010048281 A JP2010048281 A JP 2010048281A JP 2010048281 A JP2010048281 A JP 2010048281A JP 5237980 B2 JP5237980 B2 JP 5237980B2
Authority
JP
Japan
Prior art keywords
pen
finger
detection signal
detection
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010048281A
Other languages
Japanese (ja)
Other versions
JP2011186550A (en
Inventor
良太 野村
正大 築山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2010048281A priority Critical patent/JP5237980B2/en
Publication of JP2011186550A publication Critical patent/JP2011186550A/en
Application granted granted Critical
Publication of JP5237980B2 publication Critical patent/JP5237980B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラムに関する。   The present invention relates to a coordinate input device, a coordinate input method, and a computer-executable program.

座標入力装置としては、従来、抵抗膜方式、電磁誘導方式、静電結合方式、超音波方式、赤外線方式などが考えられている。   Conventionally, as a coordinate input device, a resistive film method, an electromagnetic induction method, an electrostatic coupling method, an ultrasonic method, an infrared method, and the like have been considered.

従来の座標入力装置においては、一方でペンによって文字や図形などを手書き入力しながら、同時に他方で指によってウインドウ操作やスクロール操作などの操作を行う、というような、ペンと指による協調操作ないし入力を行うことができず、情報処理装置などにおいて操作入力のスピードないし効率を上げることができないという問題があった。   In a conventional coordinate input device, on the one hand, characters, figures, etc. are input by hand, while at the same time, on the other hand, operations such as window operations and scroll operations are performed by a finger. There is a problem that the speed or efficiency of operation input cannot be increased in an information processing apparatus or the like.

図11は、従来の座標入力装置が、ペン入力と手・指入力を検出するタイミングの一例を説明するためのタイミングチャートである。図11に示すように、従来の座標入力装置では、ペンが使用されている期間は、手指検出をOFFとして、ペンを持つ手による誤入力を防止している。   FIG. 11 is a timing chart for explaining an example of timing at which a conventional coordinate input device detects pen input and hand / finger input. As shown in FIG. 11, in the conventional coordinate input device, during the period when the pen is used, finger detection is turned off to prevent erroneous input by a hand holding the pen.

上記問題を解決するため、特許文献1では、ペン入力と指入力とを同時に行う方法を提案している。かかる特許文献1では、液晶表示部の上面に、指の幅より小さい検出単位領域がxy方向に配列された、ペン、ペンを持つ手、あるいは指によって押下された座標位置を検出する押下座標検出層を配置する。無効領域(キャンセルエリア)設定部では、あらかじめ、ペンを持つ手によって押下される座標位置の領域を、ペン座標値に対して相対的な位置が定められた無効領域として設定する。識別判定部は、押下座標算出部によって算出された押下座標値から、ペン座標値を判定するとともに、そのペン座標値に対する無効領域を算出し、ペン座標値以外無効領域内の座標値は、ペンを持つ手によって押下された座標位置と判定し、算出した無効領域外の座標値は、操作入力のために指によって押下された座標位置と判定する。   In order to solve the above problem, Patent Document 1 proposes a method of performing pen input and finger input simultaneously. In Patent Document 1, detection unit areas smaller than the width of the finger are arranged in the xy direction on the upper surface of the liquid crystal display unit, and a pressed coordinate detection that detects a coordinate position pressed by a pen, a hand holding the pen, or the finger. Arrange the layers. In the invalid area (cancellation area) setting unit, the area of the coordinate position pressed by the hand holding the pen is set in advance as an invalid area whose position is determined relative to the pen coordinate value. The identification determining unit determines a pen coordinate value from the pressed coordinate value calculated by the pressed coordinate calculating unit, calculates an invalid area for the pen coordinate value, and coordinates values in the invalid area other than the pen coordinate value are It is determined that the coordinate position has been pressed by a hand having “”, and the calculated coordinate value outside the invalid area is determined to be the coordinate position pressed by the finger for operation input.

しかしながら、特許文献1では、設計時の想定に無いペンの持ち方をした時(例えば、ペンの後端を持った場合や、ペンを持った手指で別の操作を行った場合等)に、タッチ面上の無効領域外に手が触れて、誤入力する可能性があるという問題がある。また、右手・左手の初期設定が必要であるため、その設定作業が煩わしいという問題がある。また、無効領域内での指入力ができないという問題がある。さらに、ペンを持った手でコマンド入力すると、誤入力する可能性があるという問題がある。   However, in Patent Document 1, when a pen is held that is not assumed at the time of design (for example, when the rear end of the pen is held or when another operation is performed with a finger holding the pen), There is a problem that a hand touches an invalid area on the touch surface and there is a possibility of erroneous input. In addition, since initial settings for the right and left hands are required, there is a problem that the setting work is troublesome. There is also a problem that finger input cannot be performed in the invalid area. Furthermore, there is a problem that if a command is input with a hand holding a pen, there is a possibility of erroneous input.

特開2000−172441号公報JP 2000-172441 A

本発明は、上記に鑑みてなされたものであって、ペン入力と指入力を同時に行う場合に、誤入力を低減して、操作効率を向上させることが可能な座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラムを提供することを目的とする。   The present invention has been made in view of the above, and when performing pen input and finger input simultaneously, a coordinate input device, a coordinate input method, and the like that can reduce erroneous input and improve operation efficiency. Another object of the present invention is to provide a computer executable program.

上述した課題を解決し、目的を達成するために、本発明は、表示画面に設けられ、指・手によりタッチされた座標を検出して第1検出信号を出力する手指検出手段と、前記表示画面に設けられ、ペンによりタッチされた座標を検出して第2検出信号を出力するペン検出手段と、前記ペンが使用されている場合は、前記第2検出信号からポインティングを抽出して、ポインティング指示を発行し、かつ、前記第1検出信号から所定のジェスチャのみを抽出して対応するコマンドを発行する信号処理手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a finger detection means provided on a display screen for detecting coordinates touched by a finger / hand and outputting a first detection signal, and the display Pen detection means provided on the screen for detecting the coordinates touched by the pen and outputting a second detection signal; if the pen is used, the pointing is extracted from the second detection signal and pointing Signal processing means for issuing an instruction and extracting a predetermined gesture from the first detection signal and issuing a corresponding command.

また、本発明の好ましい態様によれば、前記所定のジェスチャは、一本指シングルタップ、一本指ダブルタップ、二本指ダブルタップ、二本指スワイプ、一本指での細かいドラッグ、指のピンチ、および三本指タップのうちの少なくとも1つであることが望ましい。   Further, according to a preferred aspect of the present invention, the predetermined gesture includes one finger single tap, one finger double tap, two finger double tap, two finger swipe, fine drag with one finger, finger Desirably, it is at least one of a pinch and a three finger tap.

また、本発明の好ましい態様によれば、前記ペン検出手段は、前記表示画面の下側に配置された電磁誘導式の検出デバイスであり、前記手指検出手段は、前記表示画面の上側に静電誘導方式の検出デバイスであることが望ましい。   According to a preferred aspect of the present invention, the pen detection means is an electromagnetic induction type detection device arranged on the lower side of the display screen, and the finger detection means is electrostatically placed on the upper side of the display screen. An inductive detection device is desirable.

また、上述した課題を解決し、目的を達成するために、本発明は、表示画面に設けられた手指検出手段が、指・手によりタッチされた座標を検出して第1検出信号を出力する工程と、前記表示画面に設けられたペン検出手段が、ペンによりタッチされた座標を検出して第2検出信号を出力する工程と、前記ペンが使用されている場合は、前記第2検出信号からポインティングを抽出して、ポインティング指示を発行し、かつ、前記第1検出信号から所定のジェスチャのみを抽出して対応するコマンドを発行する工程と、を含むことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a finger detection unit provided on a display screen that detects coordinates touched by a finger / hand and outputs a first detection signal. A step of detecting a coordinate point touched by the pen and outputting a second detection signal, and a second detection signal when the pen is used. Extracting a pointing from the first detection signal, issuing a pointing instruction, and extracting only a predetermined gesture from the first detection signal and issuing a corresponding command.

また、上述した課題を解決し、目的を達成するために、本発明は、表示画面に設けられた手指検出手段が、指・手によりタッチされた座標を検出して第1検出信号を出力する工程と、前記表示画面に設けられたペン検出手段が、ペンによりタッチされた座標を検出して第2検出信号を出力する工程と、前記ペンが使用されている場合は、前記第2検出信号からポインティングを抽出して、ポインティング指示を発行し、かつ、前記第1検出信号から所定のジェスチャのみを抽出して対応するコマンドを発行する工程と、をコンピュータに実行させることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a finger detection unit provided on a display screen that detects coordinates touched by a finger / hand and outputs a first detection signal. A step of detecting a coordinate point touched by the pen and outputting a second detection signal, and a second detection signal when the pen is used. Extracting a pointing from the first detection signal, issuing a pointing instruction, and extracting only a predetermined gesture from the first detection signal and issuing a corresponding command.

本発明によれば、表示画面に設けられ、指・手によりタッチされた座標を検出して第1検出信号を出力する手指検出手段と、前記表示画面に設けられ、ペンによりタッチされた座標を検出して第2検出信号を出力するペン検出手段と、前記ペンが使用されている場合は、前記第2検出信号からポインティングを抽出して、ポインティング指示を発行し、かつ、前記第1検出信号から所定のジェスチャのみを抽出して対応するコマンドを発行する信号処理手段と、を備えているので、ペン入力と指入力を同時に行う場合に、誤入力を低減して、操作効率を向上させることが可能な座標入力装置を提供することが可能になるという効果を奏する。   According to the present invention, the finger detection means provided on the display screen for detecting the coordinates touched by the finger / hand and outputting the first detection signal, the coordinates provided on the display screen and touched by the pen are displayed. A pen detection means for detecting and outputting a second detection signal; and when the pen is used, a pointing is extracted from the second detection signal, a pointing instruction is issued, and the first detection signal Signal processing means for extracting only a predetermined gesture from the camera and issuing a corresponding command, so that when a pen input and a finger input are performed simultaneously, erroneous input is reduced and operation efficiency is improved. It is possible to provide a coordinate input device capable of performing the above.

図1−1は、本発明の実施の形態に係る座標入力装置を適用したタブレットPCの概略の外観図である。FIG. 1-1 is a schematic external view of a tablet PC to which a coordinate input device according to an embodiment of the present invention is applied. 図1−2は、本発明の実施の形態に係る座標入力装置を適用したタブレットPCの概略の外観図である。FIG. 1-2 is a schematic external view of a tablet PC to which the coordinate input device according to the embodiment of the present invention is applied. 図1−3は、本発明の実施の形態に係る座標入力装置を適用したタブレットPCの概略の外観図である。FIG. 1-3 is a schematic external view of a tablet PC to which the coordinate input device according to the embodiment of the present invention is applied. 図1−4は、タブレットPCのディスプレイ側筐体の部分断面図である。FIG. 1-4 is a partial cross-sectional view of the display-side casing of the tablet PC. 図2は、タブレットPCの本体側筐体およびディスプレイ側筐体に内蔵されたハードウェアの構成を示す概略図である。FIG. 2 is a schematic diagram showing a configuration of hardware built in the main body side housing and the display side housing of the tablet PC. 図3は、検出信号処理部の信号検出を説明するためのタイミングチャートである。FIG. 3 is a timing chart for explaining signal detection of the detection signal processing unit. 図4は、一本指シングルタップの操作例を説明するための図である。FIG. 4 is a diagram for explaining an operation example of a single finger single tap. 図5は、一本指ダブルタップの操作例を説明するための図である。FIG. 5 is a diagram for explaining an operation example of a single-finger double tap. 図6は、二本指ダブルタップの操作例を説明するための図である。FIG. 6 is a diagram for explaining an operation example of a two-finger double tap. 図7は、二本指スワイプの操作例を説明するための図である。FIG. 7 is a diagram for explaining an operation example of two-finger swipe. 図8は、一本指での細かいドラッグの操作例を説明するための図である。一本指での細かいドラッグを検出した場合は、その範囲の描画オブジェクトを消去する。FIG. 8 is a diagram for explaining an example of fine drag operation with one finger. When a fine drag with one finger is detected, the drawing object in that range is deleted. 図9は、指のピンチの操作例を説明するための図である。FIG. 9 is a diagram for explaining an operation example of finger pinch. 図10は、三本指タップの操作例を説明するための図である。FIG. 10 is a diagram for explaining an operation example of a three-finger tap. 図11は、従来の座標入力装置が、ペン入力と手・指入力を検出するタイミングの一例を説明するためのタイミングチャートである。FIG. 11 is a timing chart for explaining an example of timing at which a conventional coordinate input device detects pen input and hand / finger input.

以下に、この発明にかかる情報処理装置、そのページめくり方法、およびコンピュータが実行可能なプログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、下記実施の形態における構成要素には、当業者が容易に想定できるものまたは実質的に同一のものが含まれる。   Embodiments of an information processing apparatus, a page turning method thereof, and a computer-executable program according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. In addition, constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art or that are substantially the same.

(実施の形態)
図1−1〜図1−3は、本発明の実施の形態に係る座標入力装置を適用したタブレットPCの概略の外観図である。図1−4は、タブレットPCのディスプレイ側筐体の部分断面図である。図1−1に示すように、タブレットPC1はコンバーチブル型であり、いずれも略直方体である本体側筐体14およびディスプレイ側筐体15を備える。本体側筐体14は、キーボードおよびスライスパッドを備えた入力部10を備える。
(Embodiment)
1-1 to 1-3 are schematic external views of a tablet PC to which a coordinate input device according to an embodiment of the present invention is applied. FIG. 1-4 is a partial cross-sectional view of the display-side casing of the tablet PC. As illustrated in FIG. 1A, the tablet PC 1 is a convertible type, and includes a main body side casing 14 and a display side casing 15 that are substantially rectangular parallelepipeds. The main body side housing 14 includes an input unit 10 including a keyboard and a slice pad.

ディスプレイ側筐体15は、図1−4に示すように、表示デバイス11と、表示デバイス11の上面に配置された手指検出部21と、表示部10の下面側に配置されたペン検出部22とを備えている。手指検出部21は、操作者が指や手等をタッチ面にタッチして情報入力を行うためのものである。ペン検出部22は、操作者がペン30をタッチ面にタッチして情報入力を行うためのものである。   1-4, the display-side casing 15 includes a display device 11, a finger detection unit 21 disposed on the upper surface of the display device 11, and a pen detection unit 22 disposed on the lower surface side of the display unit 10. And. The finger detection unit 21 is for an operator to input information by touching a touch surface with a finger or a hand. The pen detection unit 22 is for an operator to input information by touching the pen 30 on the touch surface.

さらに、本体側筐体14およびディスプレイ側筐体15は、それぞれの端部の中央で連結部13によって連結されており、連結部13は、これらの筐体を互いに開閉する方向に回動自在にしている。さらに、本体側筐体14に対してディスプレイ側筐体15を開いた状態で、ディスプレイ側筐体15を少なくとも180度回転させることが可能である。タブレットPC1は、図1−1に示すPC使用モードでは、通常のノートPCとして、入力部10による操作および指示体によるタッチ面の操作で使用することができる。さらに、図1−2に示すように連結部13を回転させて、本体側筐体14の上にディスプレイ側筐体15を重ねるように折り畳み、ディスプレイ11が表を向くようにすれば、図1−3に示すタブレット使用モードとなる。タブレット使用モードでは、ペン30や指等の指示体によるタッチ面の操作で、入力部10による操作と同じように使用することが可能である。   Furthermore, the main body side case 14 and the display side case 15 are connected to each other by a connecting portion 13 at the center of each end, and the connecting portion 13 can rotate these cases in a direction to open and close each other. ing. Further, the display-side housing 15 can be rotated at least 180 degrees with the display-side housing 15 being opened with respect to the main body-side housing 14. In the PC use mode shown in FIG. 1-1, the tablet PC 1 can be used as a normal notebook PC by an operation by the input unit 10 and an operation on a touch surface by an indicator. Further, as shown in FIG. 1B, when the connecting portion 13 is rotated and folded so that the display-side housing 15 is superimposed on the main body-side housing 14, the display 11 faces the front. It becomes the tablet use mode shown in -3. In the tablet use mode, it is possible to use the touch surface with an indicator such as the pen 30 or a finger in the same manner as the operation with the input unit 10.

本実施の形態では、ペン入力と手・指入力の同時入力が可能なっており、ペン30の使用時には、ペン30のみをポインティング入力に使用し、指・手入力はコマンド入力に使用する。具体的には、ペンを持つ手では入力不可能なジェスチャ(コマンド)を他方の手で入力させることにより、ペンを持つ手をタッチ面に置いてしまうことによる誤入力を排除し、ペン入力と手・指入力を同時に行う場合の操作効率を向上させる。例えば、図1−3において、右手でペン30を持ってポインティング入力し、左手で、ペン30を持つ右手では入力できないジェスチャ(コマンド)を入力する。   In the present embodiment, simultaneous input of pen input and hand / finger input is possible. When the pen 30 is used, only the pen 30 is used for pointing input, and finger / hand input is used for command input. Specifically, by inputting a gesture (command) that cannot be input with a hand with a pen with the other hand, erroneous input due to placing the hand with the pen on the touch surface is eliminated. Improve operational efficiency when performing hand / finger input simultaneously. For example, in FIG. 1C, a pointing input is performed with the pen 30 with the right hand, and a gesture (command) that cannot be input with the right hand with the pen 30 is input with the left hand.

図2は、タブレットPC1の本体側筐体14およびディスプレイ側筐体15に内蔵されたハードウェアの構成を示す概略図である。タブレットPC1は、同図に示すように、CPU101、ROM102、メモリ103、HDD(ハードディスク)104、表示デバイス11と、グラフィクスアダプタ105と、座標入力装置20と、入力部10と、ディスクドライブ106と、電源回路108とを備えており、各部はバスを介して直接または間接的に接続されている。   FIG. 2 is a schematic diagram illustrating a configuration of hardware built in the main body side casing 14 and the display side casing 15 of the tablet PC 1. As shown in the figure, the tablet PC 1 includes a CPU 101, a ROM 102, a memory 103, a HDD (hard disk) 104, a display device 11, a graphics adapter 105, a coordinate input device 20, an input unit 10, a disk drive 106, The power supply circuit 108 is provided, and each unit is connected directly or indirectly through a bus.

CPU101は、バスを介して接続されたHDD104に格納されたOS111によりタブレットPC1全体の制御を行うとともに、HDD104に格納された各種のプログラムに基づいて処理を実行する機能を司る。ROM102は、BIOS(Basic Input/Output System:基本入出力システム)102aやデータ等を格納している。   The CPU 101 controls the tablet PC 1 as a whole by the OS 111 stored in the HDD 104 connected via the bus, and controls functions based on various programs stored in the HDD 104. The ROM 102 stores a BIOS (Basic Input / Output System: basic input / output system) 102a, data, and the like.

メモリ103は、キャッシュメモリやRAMで構成されており、CPU101の実行プログラムの読み込み領域として、実行プログラムの処理データを書き込む作業領域として利用される書き込み可能メモリである。   The memory 103 is composed of a cache memory and a RAM, and is a writable memory used as a work area for writing processing data of the execution program as a read area for the execution program of the CPU 101.

HDD(ハードディスク)104は、例えば、Windows(登録商標) OS等のタブレットPC1全体の制御を行うためのOS111、周辺機器類をハードウェア操作するための各種ドライバ(表示ドライバ112a、座標検出装置用ドライバ112b等)112、座標検出装置20の入力指示に従って、表示デバイス11の表示画面の表示処理や他の処理を実行するためのアプリケーションプログラム(以下、「アプリケーションプログラム」を「アプリ」と称する)113と、特定の業務を目的とした他のアプリ114等を記憶する機能を有する。   An HDD (hard disk) 104 includes, for example, an OS 111 for controlling the entire tablet PC 1 such as a Windows (registered trademark) OS, and various drivers (display driver 112 a, coordinate detection device driver) for operating peripheral devices. 112b, etc.) 112, an application program (hereinafter referred to as “application program”) 113 for executing the display process of the display screen of the display device 11 and other processes in accordance with the input instruction of the coordinate detection device 20; In addition, it has a function of storing other applications 114 and the like for specific business purposes.

グラフィクスアダプタ105は、CPU101の制御に従って、表示情報をビデオ信号に変換し、変換したビデオ信号を表示デバイス11に出力する。表示デバイス11は、例えば、液晶表示ディスプレイや有機ELディスプレイ等のフラットディスプレイであり、CPU101の制御に従って、各種情報を表示する機能を有している。   The graphics adapter 105 converts display information into a video signal under the control of the CPU 101, and outputs the converted video signal to the display device 11. The display device 11 is a flat display such as a liquid crystal display or an organic EL display, for example, and has a function of displaying various types of information under the control of the CPU 101.

入力部10は、ユーザが入力操作を行うためのユーザインターフェースであり、文字、コマンド等を入力する各種キーより構成されるキーボードや、画面上のカーソルを移動させたり、各種メニューを選択するスライスパッド等を備えている。   The input unit 10 is a user interface for a user to perform an input operation, and includes a keyboard composed of various keys for inputting characters, commands, etc., a slice pad for moving a cursor on the screen, and selecting various menus. Etc.

ディスクドライブ106は、CD−ROMやDVD等のディスク107が挿入され、ディスク107のデータをリード/ライトする。   The disk drive 106 has a disk 107 such as a CD-ROM or DVD inserted therein, and reads / writes data on the disk 107.

電源回路108は、ACアダプタ、インテリジェント電池、インテリジェント電池を充電するための充電器、およびDC/DCコンバータ等を備えており、CPU101の制御に従って、各デバイスに電力を供給する。   The power supply circuit 108 includes an AC adapter, an intelligent battery, a charger for charging the intelligent battery, a DC / DC converter, and the like, and supplies power to each device under the control of the CPU 101.

座標入力装置20は、表示デバイス11の表示画面に設けられており、操作者が指・手やペン30等の指示体をタッチ面にタッチして、ポインティングやコマンド等の情報入力を行うためのものであり、指示体でタッチされた座標位置を検出して、ポインティング指示やコマンドをCPU101に出力する。なお、座標入力装置20の各機能を、コンピュータがプログラムを実行することによって実現することにしてもよい。以下、CPU101が、プログラムを実行して実現する機能を、プログラムを動作主体として説明する。   The coordinate input device 20 is provided on the display screen of the display device 11, and allows an operator to input information such as pointing and commands by touching an indicator such as a finger, hand, or pen 30 on the touch surface. The coordinate position touched by the indicator is detected, and a pointing instruction and a command are output to the CPU 101. In addition, you may decide to implement | achieve each function of the coordinate input device 20 when a computer runs a program. Hereinafter, functions realized by the CPU 101 by executing the program will be described with the program as an operation subject.

座標入力装置20は、指・手によりタッチされた座標を検出して第1検出信号を出力するための手指検出部21と、ペンによりタッチされた座標を検出して第2検出信号を出力するためのペン検出部22と、第1検出信号および第2検出信号からポインティングおよび所定のジェスチャを検出して、ポインティング指示および所定のジェスチャに対応するコマンドをアプリ113に出力する検出信号処理部23とを備えている。   The coordinate input device 20 detects a coordinate touched by a finger / hand and outputs a first detection signal, and detects a coordinate touched by the pen and outputs a second detection signal. And a detection signal processing unit 23 that detects a pointing and a predetermined gesture from the first detection signal and the second detection signal, and outputs a pointing instruction and a command corresponding to the predetermined gesture to the application 113. It has.

ペン検出部22は、電磁誘導方式の検出デバイスであり、電磁誘導方式のペン30によって指示された座標位置を検出するためのものである。ペン検出部22は、ループコイルがX方向およびY方向に交差して配置され、ループコイルに電流を流し、ペン30のLC回路に得られる誘導電圧を検出することにより、ペン30によってタッチ面上で指示された座標位置を検出して第2検出信号として検出信号処理部23に出力する。また、ペン検出部22は、ペン30がタブレットPC1に近接した位置にあるか否かを示すペン検出信号(例えば、ペン30が近接した位置にある場合「1」、ペン30が近接した位置にない場合「0」)を検出信号処理部30に出力する。ペン検出部22では、ペン30がペン検出部22の近傍にある場合は、誘導電圧が検出されるため、ペン30が近接した位置にあるか否かの検出が可能となっている。   The pen detection unit 22 is an electromagnetic induction type detection device for detecting a coordinate position designated by the electromagnetic induction type pen 30. The pen detection unit 22 is arranged so that the loop coil crosses the X direction and the Y direction, and a current is passed through the loop coil to detect the induced voltage obtained in the LC circuit of the pen 30. The coordinate position instructed in is detected and output to the detection signal processing unit 23 as a second detection signal. The pen detection unit 22 also detects whether the pen 30 is in a position close to the tablet PC 1 (for example, “1” when the pen 30 is close to the pen 30, If not, “0”) is output to the detection signal processing unit 30. In the pen detection unit 22, when the pen 30 is in the vicinity of the pen detection unit 22, an induced voltage is detected, and thus it is possible to detect whether or not the pen 30 is in a close position.

手指検出部21は、静電容量方式の検出デバイスである。手指検出部21は、透明なライン状の導電体がX方向およびY方向に配列されており、タッチ面上で、操作入力のために指・手によって押下された座標位置、ペン30によって押下された座標位置、ペン30を持つ手によって押下された座標位置、すなわち、タッチ面に接触した指示体の座標位置をすべて検出して、第2検出信号として検出信号処理部23に出力する。   The finger detection unit 21 is a capacitance type detection device. The finger detection unit 21 includes transparent line-shaped conductors arranged in the X direction and the Y direction, and is pressed by the pen 30 at the coordinate position pressed by the finger / hand for operation input on the touch surface. All the coordinate positions pressed by the hand holding the pen 30, that is, the coordinate positions of the indicator that has touched the touch surface, are detected and output to the detection signal processing unit 23 as the second detection signal.

検出信号処理部23は、手指検出部21から入力される第1検出信号およびペン検出部22から入力される第2検出信号からポインティング入力および所定のジェスチャ入力を検出して、ポインティング指示および所定のジェスチャに対応したコマンドをCPU101に出力する。   The detection signal processing unit 23 detects a pointing input and a predetermined gesture input from the first detection signal input from the finger detection unit 21 and the second detection signal input from the pen detection unit 22, and detects a pointing instruction and a predetermined detection signal. A command corresponding to the gesture is output to the CPU 101.

アプリ113は、検出信号処理部23から入力されるポインティング指示に応じて、表示デバイス11に文字や図形などの一部を構成する線や点などを表示させて、文字や図形などの手書き入力の処理を行ったり、検出信号処理部23から入力されるコマンドに応じて、表示デバイス11に表示されている文字・図形の拡大、縮小、画面のスクロール、モード切替等の表示の編集・変更等の処理を行う。   In response to a pointing instruction input from the detection signal processing unit 23, the application 113 displays lines, dots, and the like that constitute a part of characters, figures, and the like on the display device 11, and performs handwriting input of characters, figures, etc. Depending on the command to be processed or input from the detection signal processing unit 23, the display / editing / changing of characters / graphics displayed on the display device 11 such as enlargement / reduction, screen scrolling, mode switching, etc. Process.

図3は、検出信号処理部23の信号検出を説明するためのタイミングチャートである。検出信号処理部23は、ペン30を検出しない期間(ペン検出信号「0」)は、手指検出部21から入力される第1検出信号からポインティングおよび所定のジェスチャを検出して、ポインティング指示および検出した所定のジェスチャに対応したコマンドをアプリ113に出力する。すなわち、ペンを検出しない期間は、手指によりポインティングおよび所定のジェスチャを入力することができる。   FIG. 3 is a timing chart for explaining signal detection of the detection signal processing unit 23. The detection signal processing unit 23 detects a pointing and a predetermined gesture from the first detection signal input from the finger detection unit 21 during a period when the pen 30 is not detected (pen detection signal “0”), and performs a pointing instruction and detection. A command corresponding to the predetermined gesture is output to the application 113. That is, during a period in which no pen is detected, pointing and a predetermined gesture can be input with fingers.

また、検出信号処理部23は、ペン30を検出している期間(ペン検出信号「1」)は、ペン検出部22から入力される第2検出信号からポインティングを検出して、ポインティング指示をアプリ113に出力する。また、検出信号処理部23は、ペン30を検出している期間(ペン検出信号「1」)は、手・指のポインティングの入力を無効として、手指検出部21から入力される第1検出信号から所定のジェスチャのみを検出して、対応するコマンドをアプリ113に出力する。すなわち、ペン30を検出している期間は、手指により所定のジェスチャのみが入力可能となる。   Further, the detection signal processing unit 23 detects the pointing from the second detection signal input from the pen detection unit 22 during the period of detecting the pen 30 (pen detection signal “1”), and gives a pointing instruction to the application. It outputs to 113. In addition, the detection signal processing unit 23 invalidates the hand / finger pointing input during the period in which the pen 30 is detected (pen detection signal “1”), and the first detection signal input from the finger detection unit 21. , Only a predetermined gesture is detected, and a corresponding command is output to the application 113. That is, only a predetermined gesture can be input with a finger during a period in which the pen 30 is detected.

ここで、所定のジェスチャは、例えば、(1)一本指シングルタップ、(2)一本指ダブルタップ、(3)二本指ダブルタップ、(4)二本指スワイプ、(5)一本指での細かいドラッグ、(6)指のピンチ、(7)三本指タップ等である。かかる所定のジェスチャは、ペン30を持っている手では入力できないものを定義しており、ペン30を持っている手が触れても誤入力とならないようにしている。すなわち、ペン30を持っている手が触れても、所定のジェスチャとして検出されないため、誤入力を防止することができ、ペン入力と手・指入力により操作効率を向上することができる。   Here, the predetermined gesture is, for example, (1) one-finger single tap, (2) one-finger double tap, (3) two-finger double tap, (4) two-finger swipe, (5) one For example, a fine drag with a finger, (6) a pinch of a finger, and (7) a three-finger tap. Such predetermined gestures define what cannot be input by the hand holding the pen 30, so that erroneous input will not occur even if the hand holding the pen 30 touches it. That is, even if a hand holding the pen 30 is touched, it is not detected as a predetermined gesture, so that erroneous input can be prevented, and operational efficiency can be improved by pen input and hand / finger input.

図4〜図10は、所定のジェスチャと操作例との関係を説明するための説明図である。
検出信号処理部23は、所定のジェスチャを検出した場合に、対応するコマンドをアプリ13に発行し、アプリ113は、コマンドに応じた処理を行う。
4-10 is explanatory drawing for demonstrating the relationship between a predetermined | prescribed gesture and the example of operation.
When the detection signal processing unit 23 detects a predetermined gesture, the detection signal processing unit 23 issues a corresponding command to the application 13, and the application 113 performs processing according to the command.

(1)一本指シングルタップ
図4は、一本指シングルタップの操作例を説明するための図である。検出信号処理部23は、一本指シングルタップを検出した場合には、メニュー表示ON/OFFコマンドをアプリ113に出力する。アプリ113は、メニュー表示ON/OFFコマンドが入力されると、メニュー表示のON/OFFを切り替える。例えば、ユーザは、普段はメニューを表示せずに、画面を最大限に活用し、必要な時に一本指シングルタップを行って、メニュー表示をONとする。不要になったら、一本指シングルタップを行って、メニュー表示をOFFとする。
(1) Single-finger single tap FIG. 4 is a diagram for explaining an operation example of a single-finger single tap. The detection signal processing unit 23 outputs a menu display ON / OFF command to the application 113 when a single finger single tap is detected. When the menu display ON / OFF command is input, the application 113 switches menu display ON / OFF. For example, the user does not normally display the menu, makes the best use of the screen, performs a single finger single tap when necessary, and turns on the menu display. When no longer needed, perform a single finger single tap to turn off the menu display.

(2)一本指ダブルタップ
図5は、一本指ダブルタップの操作例を説明するための図である。検出信号処理部23は、一本指ダブルタップを検出した場合には、キャンバス縮小コマンドをアプリ113に出力する。アプリ113は、キャンバス縮小コマンドが入力されるとキャンバスを縮小(例えば、50%)する。
(2) Single-finger double tap FIG. 5 is a diagram for explaining an operation example of a single-finger double tap. The detection signal processing unit 23 outputs a canvas reduction command to the application 113 when detecting a single finger double tap. When the canvas reduction command is input, the application 113 reduces the canvas (for example, 50%).

(3)二本指ダブルタップ
図6は、二本指ダブルタップの操作例を説明するための図である。検出信号処理部23は、二本指ダブルタップを検出した場合には、キャンバス拡大コマンドをアプリ113に出力する。アプリ113は、キャンバス拡大コマンドが入力されると、キャンバスを拡大(例えば、200%)する。ユーザは、一本指ダブルタップと二本指ダブルタップを繰り返すことで、縮小・拡大を繰り返すことができる。
(3) Two-finger double tap FIG. 6 is a diagram for explaining an operation example of a two-finger double tap. The detection signal processing unit 23 outputs a canvas enlargement command to the application 113 when detecting a two-finger double tap. When the canvas enlargement command is input, the application 113 enlarges the canvas (for example, 200%). The user can repeat the reduction / enlargement by repeating the one-finger double tap and the two-finger double tap.

(4)二本指スワイプ
図7は、二本指スワイプの操作例を説明するための図である。検出信号処理部23は、二本指スワイプを検出した場合は、スクロールコマンドをアプリ113に出力する。アプリは、スクロールコマンドが入力されると、スワイプ方向にキャンバスをスクロールさせる。
(4) Two-finger swipe FIG. 7 is a diagram for explaining an operation example of two-finger swipe. The detection signal processing unit 23 outputs a scroll command to the application 113 when detecting a two-finger swipe. When the scroll command is input, the application scrolls the canvas in the swipe direction.

(5)一本指での細かいドラッグ
図8は、一本指での細かいドラッグの操作例を説明するための図である。検出信号処理部23は、一本指での細かいドラッグを検出した場合は、消去コマンドをアプリ113に出力する。アプリ113は、消去コマンドが入力されると、その範囲の描画オブジェクトを消去する。
(5) Fine Drag with One Finger FIG. 8 is a diagram for explaining an example of fine drag operation with one finger. The detection signal processing unit 23 outputs an erasure command to the application 113 when detecting a fine drag with one finger. When the delete command is input, the application 113 deletes the drawing object in the range.

(6)指のピンチ
図9は、指のピンチの操作例を説明するための図である。検出信号処理部23は、指のピンチを検出した場合は、拡大/縮小コマンドをアプリ113に出力する。アプリ113は、拡大/縮小コマンドが入力されると、その方向に応じて、拡大・縮小を行う。同図では、拡大を示しており、逆方向に指をピンチすることで縮小することができる。
(6) Finger Pinch FIG. 9 is a diagram for explaining an operation example of finger pinch. When the detection signal processing unit 23 detects a pinch of a finger, the detection signal processing unit 23 outputs an enlargement / reduction command to the application 113. When an enlargement / reduction command is input, the application 113 performs enlargement / reduction according to the direction. In the same figure, enlargement is shown, and it can be reduced by pinching a finger in the opposite direction.

(7)三本指タップ
図10は、三本指タップの操作例を説明するための図である。検出信号処理部23は、三本指タップを検出した場合には、モード切替コマンドをアプリ113に出力する。アプリ113は、モード切替コマンドが入力されると、フリーハンドモード(書いたものをそのまま描画するモード)と定規モード(描画オブジェクトのうち似ている図形を描画するモード)の切替を行う。ユーザは、三本指タップで、フリーハンドモードと定規モードを切り替えることができる。
(7) Three-finger tap FIG. 10 is a diagram for explaining an operation example of a three-finger tap. When the detection signal processing unit 23 detects a three-finger tap, the detection signal processing unit 23 outputs a mode switching command to the application 113. When a mode switching command is input, the application 113 switches between a freehand mode (a mode for drawing a written object as it is) and a ruler mode (a mode for drawing a similar figure among drawing objects). The user can switch between the freehand mode and the ruler mode with a three-finger tap.

以上説明したように、本実施の形態によれば、表示画面に設けられ、指・手によりタッチされた座標を検出して第1検出信号を出力する手指検出部21と、ペン30によりタッチされた座標を検出して第2検出信号を出力するペン検出部22と、ペン30が使用されている場合は、第2検出信号からポインティングを抽出して、ポインティング指示を発行し、かつ、第2検出信号から所定のジェスチャのみを抽出して対応するコマンドを発行する検出信号処理部23とを備えているので、ペン入力と指入力を同時に行う場合に、誤入力を低減して、操作効率を向上させることが可能となる。付言すると、ペンを持つ手がタッチ面に触れた場合でも、ポインティング入力またはコマンド入力されないため、その誤入力を防止することができる。右手・左手の初期設定が不要であるため、ユーザ操作が簡単となる。ペン近傍のタッチ面に対しても、ペンを持っていない手でコマンド入力することが可能となる。   As described above, according to the present embodiment, the pen 30 is touched by the finger detection unit 21 provided on the display screen and detecting the coordinates touched by the finger / hand and outputting the first detection signal. When the pen detection unit 22 that detects the detected coordinates and outputs the second detection signal and the pen 30 are used, the pointing is extracted from the second detection signal, a pointing instruction is issued, and the second Since the detection signal processing unit 23 that extracts only a predetermined gesture from the detection signal and issues a corresponding command is provided, when performing pen input and finger input simultaneously, erroneous input is reduced and operation efficiency is reduced. It becomes possible to improve. In other words, even when a hand holding a pen touches the touch surface, pointing input or command input is not performed, and thus erroneous input can be prevented. Since initial settings for the right hand and the left hand are not required, the user operation is simplified. It is possible to input a command with a hand not holding the pen on the touch surface in the vicinity of the pen.

また、本実施の形態では、所定のジェスチャは、ペン30を持っている手では入力が不可能なもの、例えば、(1)一本指シングルタップ、(2)一本指ダブルタップ、(3)二本指ダブルタップ、(4)二本指スワイプ、(5)一本指での細かいドラッグ、(6)指のピンチ、(7)三本指タップ等としたので、ペン30を持っている手による誤入力を排除することが可能となる。   In the present embodiment, the predetermined gesture cannot be input by the hand holding the pen 30, for example, (1) one-finger single tap, (2) one-finger double tap, (3 2) Double finger double tap, (4) 2 finger swipe, (5) Fine drag with 1 finger, (6) Finger pinch, (7) 3 finger tap, etc. It is possible to eliminate erroneous input by a hand that is present.

また、上記実施の形態では、座標入力装置をタブレットPCに適用した場合について説明したが、本発明はこれに限られるものではなく、手指検出とペン検出が可能な全てのスクリーンデバイスに適用可能であり、例えば、タッチパネルの付いたノートPC、スレート型のPC、ALL−in−oneタイプのPCにも適用可能である。また、上記実施の形態では、本発明に係る座標入力装置を搭載した情報入力装置として、タブレットPCを例示して説明したが、本実施の形態に係る情報入力装置は、タブレットPCに限られるものではなく、例えば、ディスクトップ型PC、携帯電話、PDA、デジタルカメラ等の各種の情報入力装置に適用可能である。   In the above embodiment, the coordinate input device is applied to a tablet PC. However, the present invention is not limited to this, and can be applied to all screen devices capable of finger detection and pen detection. For example, the present invention can also be applied to a notebook PC with a touch panel, a slate PC, and an ALL-in-one type PC. In the above embodiment, the tablet PC is exemplified as the information input device equipped with the coordinate input device according to the present invention. However, the information input device according to this embodiment is limited to the tablet PC. Instead, the present invention can be applied to various information input devices such as a desktop PC, a mobile phone, a PDA, and a digital camera.

以上のように、本発明にかかる座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラムは、ペン入力と指入力を同時に行う場合に有用である。   As described above, the coordinate input device, the coordinate input method, and the computer-executable program according to the present invention are useful when pen input and finger input are performed simultaneously.

1 タブレットPC
10 入力部
11 表示デバイス
14 本体側筐体
15 ディスプレイ側筐体
20 座標入力装置
21 手指検出部
22 ペン検出部
23 検出信号処理部
101 CPU
102 ROM
103 メモリ
104 HDD(ハードディスク)
105 グラフィクスアダプタ
106 ディスクドライブ
107 ディスク
108 電源回路
111 OS
112 ドライバ
113 アプリ
114 他のアプリ
1 Tablet PC
DESCRIPTION OF SYMBOLS 10 Input part 11 Display device 14 Main body side housing | casing 15 Display side housing | casing 20 Coordinate input device 21 Finger detection part 22 Pen detection part 23 Detection signal processing part 101 CPU
102 ROM
103 Memory 104 HDD (Hard Disk)
105 Graphics adapter 106 Disk drive 107 Disk 108 Power supply circuit 111 OS
112 Drivers 113 Apps 114 Other apps

Claims (5)

表示画面に設けられ、指・手によりタッチされた座標を検出して第1検出信号を出力する手指検出手段と、
前記表示画面に設けられ、ペンによりタッチされた座標を検出して第2検出信号を出力するペン検出手段と、
前記ペンが自装置に近接した位置にあるか否かを示すペン検出信号を出力するペン位置検出手段と、
前記ペン検出信号が前記ペンは前記自装置に近接した位置にあることを示す場合は、前記第2検出信号からポインティングを抽出して、ポインティング指示を発行し、かつ、前記第1検出信号から所定のジェスチャのみを抽出して対応するコマンドを発行する信号処理手段と、
を備えたことを特徴とする座標入力装置。
A finger detection means provided on a display screen for detecting coordinates touched by a finger / hand and outputting a first detection signal;
Pen detection means provided on the display screen for detecting coordinates touched by a pen and outputting a second detection signal;
Pen position detection means for outputting a pen detection signal indicating whether or not the pen is in a position close to the device;
When the pen detection signal indicates that the pen is in a position close to the device itself, the pointing is extracted from the second detection signal, a pointing instruction is issued, and the predetermined value is determined from the first detection signal. A signal processing means for extracting only the gestures and issuing a corresponding command;
A coordinate input device comprising:
前記所定のジェスチャは、一本指シングルタップ、一本指ダブルタップ、二本指ダブルタップ、二本指スワイプ、一本指での細かいドラッグ、指のピンチ、および三本指タップのうちの少なくとも1つであることを特徴とする請求項1に記載の座標入力装置。   The predetermined gesture includes at least one of a one-finger single tap, a one-finger double tap, a two-finger double tap, a two-finger swipe, a fine drag with one finger, a finger pinch, and a three-finger tap. The coordinate input device according to claim 1, wherein the number is one. 前記ペン検出手段は、前記表示画面の下側に配置された電磁誘導式の検出デバイスであり、前記手指検出手段は、前記表示画面の上側に配置された静電容量方式の検出デバイスであることを特徴とする請求項1または2に記載の座標入力装置。   The pen detection means is an electromagnetic induction type detection device arranged on the lower side of the display screen, and the finger detection means is a capacitance type detection device arranged on the upper side of the display screen. The coordinate input device according to claim 1, wherein: 表示画面に設けられた手指検出手段が、指・手によりタッチされた座標を検出して第1検出信号を出力する工程と、
前記表示画面に設けられたペン検出手段が、ペンによりタッチされた座標を検出して第2検出信号を出力する工程と、
前記ペンが自装置に近接した位置にあるか否かを示すペン検出信号を出力するペン位置検出工程と、
前記ペン検出信号が前記ペンは前記自装置に近接した位置にあることを示す場合は、前記第2検出信号からポインティングを抽出して、ポインティング指示を発行し、かつ、前記第1検出信号から所定のジェスチャのみを抽出して対応するコマンドを発行する工程と、
を含むことを特徴とする座標入力方法。
A step of detecting a coordinate touched by a finger / hand and outputting a first detection signal by a finger detection unit provided on the display screen;
A step of detecting a coordinate touched by a pen and outputting a second detection signal by a pen detection unit provided on the display screen;
A pen position detection step for outputting a pen detection signal indicating whether or not the pen is in a position close to the device;
When the pen detection signal indicates that the pen is in a position close to the device itself, the pointing is extracted from the second detection signal, a pointing instruction is issued, and the predetermined value is determined from the first detection signal. Extracting only the gestures and issuing the corresponding command;
The coordinate input method characterized by including.
表示画面に設けられた手指検出手段が、指・手によりタッチされた座標を検出して第1検出信号を出力する工程と、
前記表示画面に設けられたペン検出手段が、ペンによりタッチされた座標を検出して第2検出信号を出力する工程と、
前記ペンが自装置に近接した位置にあるか否かを示すペン検出信号を出力するペン位置検出工程と、
前記ペン検出信号が前記ペンは前記自装置に近接した位置にあることを示す場合は、前記第2検出信号からポインティングを抽出して、ポインティング指示を発行し、かつ、前記第1検出信号から所定のジェスチャのみを抽出して対応するコマンドを発行する工程と、
をコンピュータに実行させることを特徴とするコンピュータが実行可能なプログラム。
A step of detecting a coordinate touched by a finger / hand and outputting a first detection signal by a finger detection unit provided on the display screen;
A step of detecting a coordinate touched by a pen and outputting a second detection signal by a pen detection unit provided on the display screen;
A pen position detection step for outputting a pen detection signal indicating whether or not the pen is in a position close to the device;
When the pen detection signal indicates that the pen is in a position close to the device itself, the pointing is extracted from the second detection signal, a pointing instruction is issued, and the predetermined value is determined from the first detection signal. Extracting only the gestures and issuing the corresponding command;
A computer-executable program characterized by causing a computer to execute.
JP2010048281A 2010-03-04 2010-03-04 Coordinate input device, coordinate input method, and computer executable program Active JP5237980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010048281A JP5237980B2 (en) 2010-03-04 2010-03-04 Coordinate input device, coordinate input method, and computer executable program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010048281A JP5237980B2 (en) 2010-03-04 2010-03-04 Coordinate input device, coordinate input method, and computer executable program

Publications (2)

Publication Number Publication Date
JP2011186550A JP2011186550A (en) 2011-09-22
JP5237980B2 true JP5237980B2 (en) 2013-07-17

Family

ID=44792768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010048281A Active JP5237980B2 (en) 2010-03-04 2010-03-04 Coordinate input device, coordinate input method, and computer executable program

Country Status (1)

Country Link
JP (1) JP5237980B2 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5284448B2 (en) * 2011-11-25 2013-09-11 株式会社東芝 Information processing apparatus and display control method
JP5778592B2 (en) * 2012-01-30 2015-09-16 株式会社ジャパンディスプレイ Display device, touch detection device, and electronic device
JP5984439B2 (en) * 2012-03-12 2016-09-06 キヤノン株式会社 Image display device and image display method
JP6127401B2 (en) * 2012-07-24 2017-05-17 カシオ計算機株式会社 Information processing apparatus, program, and information processing method
CN102819374B (en) 2012-08-24 2015-07-29 北京壹人壹本信息科技有限公司 The touch control method of electric capacity and electromagnetic double-mode touch screen and hand-held electronic equipment
US9389737B2 (en) 2012-09-14 2016-07-12 Samsung Display Co., Ltd. Display device and method of driving the same in two modes
US11314368B2 (en) 2012-09-14 2022-04-26 Samsung Display Co., Ltd. Display device and method of driving the same in two modes
US9448684B2 (en) * 2012-09-21 2016-09-20 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for setting a digital-marking-device characteristic
JPWO2014049671A1 (en) * 2012-09-26 2016-08-18 パナソニックIpマネジメント株式会社 Display device and pen input erasing method
KR102092132B1 (en) * 2012-11-30 2020-04-14 삼성전자주식회사 Electronic apparatus providing hovering input effect and control method thereof
JP5951886B2 (en) * 2013-03-18 2016-07-13 株式会社東芝 Electronic device and input method
JP6115221B2 (en) * 2013-03-21 2017-04-19 カシオ計算機株式会社 Information processing apparatus, information processing method, and program
JP5728592B1 (en) * 2013-05-30 2015-06-03 株式会社東芝 Electronic device and handwriting input method
JP6196101B2 (en) * 2013-09-02 2017-09-13 株式会社東芝 Information processing apparatus, method, and program
JP2015072670A (en) * 2013-09-04 2015-04-16 日東電工株式会社 Input device
CN103473012A (en) 2013-09-09 2013-12-25 华为技术有限公司 Screen capturing method, device and terminal equipment
JP5982345B2 (en) * 2013-10-29 2016-08-31 京セラドキュメントソリューションズ株式会社 Display device, electronic device, and computer program
KR101581672B1 (en) * 2014-06-09 2015-12-31 주식회사 더한 Multiple input pad and input system capable of detecting electrostatic touch and induced electromagnetic field
JP2016035706A (en) * 2014-08-04 2016-03-17 パナソニックIpマネジメント株式会社 Display device, display control method and display control program
JP2016035705A (en) * 2014-08-04 2016-03-17 パナソニックIpマネジメント株式会社 Display device, display control method and display control program
JP6801947B2 (en) * 2014-11-19 2020-12-16 セイコーエプソン株式会社 Display device, display control method and display system
KR101972644B1 (en) 2014-12-24 2019-04-25 가부시키가이샤 시로쿠 Coordinate detection device
US20170052631A1 (en) * 2015-08-20 2017-02-23 Futurewei Technologies, Inc. System and Method for Double Knuckle Touch Screen Control
JP2021018777A (en) 2019-07-24 2021-02-15 キヤノン株式会社 Electronic device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2599019B2 (en) * 1990-06-28 1997-04-09 三洋電機株式会社 Pen input device
JP3758865B2 (en) * 1998-12-01 2006-03-22 富士ゼロックス株式会社 Coordinate input device
EP2071436B1 (en) * 2006-09-28 2019-01-09 Kyocera Corporation Portable terminal and method for controlling the same

Also Published As

Publication number Publication date
JP2011186550A (en) 2011-09-22

Similar Documents

Publication Publication Date Title
JP5237980B2 (en) Coordinate input device, coordinate input method, and computer executable program
US10268367B2 (en) Radial menus with bezel gestures
US20180225021A1 (en) Multi-Finger Gestures
JP5323010B2 (en) Information input device, screen layout method thereof, and computer-executable program
JP5718042B2 (en) Touch input processing device, information processing device, and touch input control method
WO2013094371A1 (en) Display control device, display control method, and computer program
US20130141373A1 (en) Storage medium storing information processing program to be executed by computer of information processor
TWI490771B (en) Programmable display unit and screen operating and processing program thereof
JP5951886B2 (en) Electronic device and input method
JP5846129B2 (en) Information processing terminal and control method thereof
US20140068524A1 (en) Input control device, input control method and input control program in a touch sensing display
KR20140105331A (en) Mobile terminal for controlling objects display on touch screen and method therefor
JP2012212230A (en) Electronic apparatus
KR102152383B1 (en) Terminal apparatus and control method
JP2015050755A (en) Information processing apparatus, control method and program
KR101063939B1 (en) User interface control device and implementation method
KR20140067861A (en) Method and apparatus for sliding objects across touch-screen display
JP6220429B1 (en) Information processing apparatus, touch panel sensitivity control method, and program
JP2015049861A (en) Information processing apparatus, control method and program
JP5165624B2 (en) Information input device, object display method, and computer-executable program
TWI462034B (en) Touch electronic device and digital information selection method thereof
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
CN115867883A (en) Method and apparatus for receiving user input
JP4904239B2 (en) Input processing method and input control apparatus
JP5947771B2 (en) Portable information processing apparatus, input method thereof, and computer-executable program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130329

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5237980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250