JPH0793094A - Coordinate input device - Google Patents

Coordinate input device

Info

Publication number
JPH0793094A
JPH0793094A JP23794793A JP23794793A JPH0793094A JP H0793094 A JPH0793094 A JP H0793094A JP 23794793 A JP23794793 A JP 23794793A JP 23794793 A JP23794793 A JP 23794793A JP H0793094 A JPH0793094 A JP H0793094A
Authority
JP
Japan
Prior art keywords
coordinate
tablet
status
finger
mouse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP23794793A
Other languages
Japanese (ja)
Inventor
Hisaaki Shindou
久聡 進藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP23794793A priority Critical patent/JPH0793094A/en
Publication of JPH0793094A publication Critical patent/JPH0793094A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE:To provide a coordinate input device which enables application software, designed for the operation of a mouse having two buttons, to be used only by finger input operation. CONSTITUTION:This coordinate input device is equipped with a coordinate input part 9 which obtains coordinate value by converting a potential difference generated when a tablet is in touch with a finger, into a digital value, a coordinate and status storage part 10 which stores a status value indicating whether or not the tablet is in touch with the finger, and the obtained coordinate values, and a status monitor part 11 which monitors a status so as to decide left-button operation or right-button operation. And, the device is equipped with an output data generation part 12 which converts the coordinate values and the value determined by the status monitor part 11 into the format of data outputted by the mouse having two buttons.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、指による座標入力が可
能なタブレットを用いた座標入力装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coordinate input device using a tablet which allows coordinate input by a finger.

【0002】[0002]

【従来の技術】近年、コンピュータ等の端末装置におけ
るアプリケーションは、直感的に把握しやすい操作環境
を提供するグラフィカルユーザーインターフェース(G
UI)を採用したものが主流となりつつある。GUI環
境下でのポインティングデバイスとして広く用いられて
いるものにマウスがある。マウスには1つ、あるいは複
数のボタンを有するものがあるが、最も一般的なものは
左右2つのボタンを有するものである。各ボタンは押さ
れた状態のときにON、放した状態のときにOFFの信
号を端末装置に出力する。この機構を用いて、クリッ
ク、ダブルクリック、ドラッグといった状態を作り出
す。マウス操作型のアプリケーションはこれらの状態を
利用し、様々な操作に対応させている。
2. Description of the Related Art In recent years, applications in terminal devices such as computers are graphical user interfaces (G) that provide an operating environment that is easy to grasp intuitively.
UI (UI) is becoming mainstream. A mouse is widely used as a pointing device under the GUI environment. Some mice have one or more buttons, but the most common are those with two left and right buttons. Each button outputs a signal to the terminal device that it is ON when it is pressed and OFF when it is released. This mechanism is used to create states such as click, double click, and drag. A mouse operation type application uses these states to support various operations.

【0003】一方、端末装置の小型化や携帯化が進むに
つれ、ポインティングデバイスとしてタブレットが多く
用いられるようになった。タブレットは、指あるいはペ
ンがタブレット表面に接触したときに、接触点の座標を
端末装置に出力する。また、マウスにおけるボタンと同
様に、指あるいはペンとタブレットの接触時にON、非
接触時にOFFの信号を端末装置に出力する。この機構
を用いて、指あるいはペンの動作によってマウスと同
様、クリック、ダブルクリック、ドラッグの状態を作り
出す。したがって従来のタブレットおよび制御プログラ
ム(以下デバイスドライバ)によって1ボタンのマウス
と同等の操作環境を実現できる。
On the other hand, with the progress of miniaturization and portability of terminal devices, tablets have come to be widely used as pointing devices. The tablet outputs the coordinates of the contact point to the terminal device when a finger or a pen contacts the surface of the tablet. Further, like a button on a mouse, it outputs an ON signal to the terminal device when the finger or the pen is in contact with the tablet, and an OFF signal when the tablet is not in contact. Using this mechanism, the state of click, double click, and drag is created by the action of a finger or pen, similar to a mouse. Therefore, an operating environment equivalent to that of a one-button mouse can be realized by the conventional tablet and control program (hereinafter referred to as device driver).

【0004】[0004]

【発明が解決しようとする課題】しかしながら、タブレ
ットを用いた従来の座標入力装置では、1ボタンのマウ
スと同等の操作しか行えないため、2つのボタンを有す
るマウスによる操作を前提としたアプリケーションを、
アプリケーションの変更なしに操作することができない
という問題点があった。
However, since the conventional coordinate input device using a tablet can perform only the same operation as a one-button mouse, an application based on the operation with a mouse having two buttons is required.
There was a problem that it could not be operated without changing the application.

【0005】そこで本発明は、タブレットを用いながら
2つのボタンによる操作環境を、アプリケーションの変
更なしに実現できる座標入力装置を提供することを目的
とする。
Therefore, an object of the present invention is to provide a coordinate input device which can realize an operating environment with two buttons while using a tablet without changing an application.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に本発明は、タブレットを有し、指とタブレットの接触
により生じる電位差をA−D変換し、座標値を得る座標
入力部と、この座標値と指と前記タブレットの接触/非
接触を示すステータス値を保存する座標・ステータス記
憶部と、このステータス値を監視して左右のボタン操作
を判別するステータス監視部と、このステータス監視部
により決定された値と座標値とを2つボタンのマウスが
出力するデータ形式に変換する出力データ生成部とを備
えている。
In order to solve the above-mentioned problems, the present invention has a tablet, and a coordinate input section for A-D converting a potential difference caused by contact between a finger and the tablet to obtain a coordinate value, and A coordinate / status storage unit that stores coordinate values and a status value indicating contact / non-contact between the finger and the tablet, a status monitoring unit that monitors the status value and determines the left / right button operation, and the status monitoring unit An output data generation unit that converts the determined value and the coordinate value into a data format output by a two-button mouse is provided.

【0007】[0007]

【作用】上記構成により、オペレータが、マウスの左ボ
タン操作に対応する態様と、右ボタン操作に対応する態
様で、指をタブレットに接触させることにより、座標入
力部が座標を得ると共に、ステータス監視部がこの接触
の態様により左右のボタン操作のいずれに相当するのか
を判別し、出力データ生成部が2つのボタンのマウスが
出力するデータ形式に変換して、アプリケーションへ出
力する。
With the above-described structure, the operator inputs his / her finger to the tablet in a mode corresponding to the left button operation of the mouse and a mode corresponding to the right button operation, so that the coordinate input section obtains the coordinates and the status monitoring is performed. The unit determines which of the left and right button operations corresponds to this contact mode, and the output data generation unit converts it into the data format output by the mouse of the two buttons and outputs it to the application.

【0008】[0008]

【実施例】以下に図面を参照して本発明の実施例を詳細
に説明する。
Embodiments of the present invention will be described in detail below with reference to the drawings.

【0009】図1(a)及び図1(b)は本発明の一実
施例における座標入力装置を端末装置に接続した状態を
示す外観構成図である。同図において、タブレット3,
7はマウスと同様にパーソナルコンピュータ等の端末装
置1,5に接続され、CRTディスプレイ2や液晶ディ
スプレイ6に重ね合わせた構成をとる。そして、オペレ
ータは指4,8をタブレット3,7の特定の位置に接触
させることで入力座標の指示を行う。
FIGS. 1A and 1B are external structural views showing a state in which the coordinate input device in one embodiment of the present invention is connected to a terminal device. In the figure, the tablet 3,
Similar to a mouse, the reference numeral 7 is connected to terminal devices 1 and 5 such as a personal computer and has a configuration in which it is superposed on the CRT display 2 and the liquid crystal display 6. Then, the operator instructs the input coordinates by bringing the fingers 4 and 8 into contact with the specific positions of the tablets 3 and 7.

【0010】図2は本発明の一実施例における座標入力
装置の機能ブロック図である。図2に示すように、機能
ブロックとして、指4,8とタブレット3,7の接触に
よって生じる電位差をA−D変換し、座標値を得る座標
入力部9と、指4,8とタブレット3,7の接触/非接
触を示すステータス値と得られた座標値を保存する座標
・ステータス記憶部10と、左ボタン操作か右ボタン操
作かを判別するためにステータスを監視するステータス
監視部11と、座標値とステータス監視部によって決定
された値を2つボタンのマウスが出力するデータ形式に
変換する出力データ生成部12とを備えている。
FIG. 2 is a functional block diagram of the coordinate input device in one embodiment of the present invention. As shown in FIG. 2, as a functional block, a coordinate input unit 9 for A-D converting the potential difference caused by the contact between the fingers 4, 8 and the tablets 3, 7 to obtain coordinate values, the fingers 4, 8 and the tablets 3, 7. 7, a coordinate / status storage unit 10 that stores the status value indicating contact / non-contact and the obtained coordinate value; and a status monitoring unit 11 that monitors the status to determine whether the button operation is the left button operation or the right button operation. An output data generation unit 12 is provided for converting the coordinate values and the values determined by the status monitoring unit into a data format output by a two-button mouse.

【0011】この座標入力装置は、ハード構成ブロック
として、図3に示すように、指を接触させる透明なタブ
レット13と、タブレット13を制御し、A−D変換に
よって指が接触した点の座標値を得るタブレットコント
ローラ14と、タブレット13が重ね合わされる液晶デ
ィスプレイ15と、液晶ディスプレイ15の制御を行う
LCDコントローラ16と、ROM18内の制御プログ
ラムにしたがってこの装置の制御を実行するCPU(中
央演算処理装置)17と、記憶手段としてのROM(リ
ード・オンリー・メモリ)18とRAM(ランダム・ア
クセス・メモリ)19とを備えている。
As shown in FIG. 3, this coordinate input device controls a transparent tablet 13 with which a finger comes into contact and a tablet 13 as a hardware configuration block, and coordinate values of a point where the finger comes into contact by A-D conversion. , A liquid crystal display 15 on which the tablet 13 is superposed, an LCD controller 16 for controlling the liquid crystal display 15, and a CPU (central processing unit) for controlling this device according to a control program in the ROM 18. ) 17, a ROM (read only memory) 18 and a RAM (random access memory) 19 as storage means.

【0012】RAM19には、タブレット13で入力さ
れ、タブレットコントローラ14で加工された座標値お
よびタブレット13のステータス値を記憶する座標・ス
テータス記憶領域20と、2つのボタンを有するマウス
が使用されることを前提としたアプリケーションプログ
ラムが動作するためのアプリケーション動作領域21
と、座標・ステータス記憶領域20に記憶されたステー
タス値の変化から、指によるタブレット入力がマウスの
どの動作に対応しているかを判別し、座標値とともにマ
ウスが出力するデータ形式に変換し、変換されたデータ
をアプリケーションへ出力するデバイスドライバが動作
するためのデバイスドライバ動作領域22とが、設けら
れている。
The RAM 19 uses a coordinate / status storage area 20 for storing the coordinate values input by the tablet 13 and processed by the tablet controller 14 and the status value of the tablet 13, and a mouse having two buttons. Application operating area 21 for operating an application program based on
Then, from the change in the status value stored in the coordinate / status storage area 20, it is determined which operation of the mouse the tablet input with the finger corresponds to, and the data is converted into the data format output by the mouse together with the coordinate value. A device driver operation area 22 for operating a device driver that outputs the generated data to an application is provided.

【0013】また、座標・ステータス記憶領域20に記
憶されるデータは、図4(a)に示すデータ構造を持
つ。このデータはステータスを表わすバイトa1と、X
座標を表わすバイトa2と、Y座標を表わすバイトa3
の3バイトからなる。さらに、図4(b)に示すよう
に、S2,S1の2ビットで4種類のステータスを表わ
す。
The data stored in the coordinate / status storage area 20 has the data structure shown in FIG. This data consists of byte a1 representing the status and X
Byte a2 representing coordinates and byte a3 representing Y coordinates
It consists of 3 bytes. Further, as shown in FIG. 4B, two types of bits S2 and S1 represent four types of status.

〔00〕は指がタブレットに接触していない状態
を、〔01〕は非接触状態から接触状態への変化を、
〔10〕は接触状態から非接触状態への変化を、〔1
1〕は極小時間内に非接触から接触、再び非接触と状態
が変化したことを表わす。
[00] indicates the state where the finger is not in contact with the tablet, [01] indicates the change from the non-contact state to the contact state,
[10] shows the change from the contact state to the non-contact state as [1
1] represents that the state changed from non-contact to contact and then again to non-contact within the minimum time.

【0014】比較のため、図4(c)に2つのボタンを
有するマウスがアプリケーションへ出力するデータ構造
を示す。このデータはボタンステータスを表わすバイト
c1と、X座標を表わすバイトc2と、Y座標を表わす
バイトc3の3バイトからなる。また、バイトc1のビ
ットS2、ビットS1の2ビットでタブレット13のデ
ータと同様に4種類のステータスを表わす。バイトc1
のビットBL,BRは各々左ボタン、右ボタンの状態を
表わす。ビットBL,BRはビットが〔1〕の時にボタ
ンが押されていることを表わし、ビットが
For comparison, FIG. 4C shows the data structure output to the application by the mouse having two buttons. This data is composed of 3 bytes: a byte c1 representing the button status, a byte c2 representing the X coordinate, and a byte c3 representing the Y coordinate. Further, the bit S2 and the bit S1 of the byte c1 represent four types of statuses like the data of the tablet 13. Byte c1
Bits BL and BR of represent the states of the left button and the right button, respectively. Bits BL and BR indicate that the button is pressed when the bit is [1].

〔0〕の時に
ボタンが押されていないことを表わす。
When it is [0], it means that the button is not pressed.

【0015】タブレット13への通常の指入力動作をマ
ウスの左ボタンの操作と対応づけた場合、右ボタンに対
応する指入力動作の判別は、タブレットデータのステー
タスが〔01〕のときに極小時間内の座標値の変化によ
って行う。この判別手順について、図5に示す本実施例
のフローチャートを用いて詳細な説明を行う。
When the normal finger input operation to the tablet 13 is associated with the operation of the left button of the mouse, the determination of the finger input operation corresponding to the right button is made in the minimum time when the status of the tablet data is [01]. This is done by changing the coordinate values inside. This determination procedure will be described in detail with reference to the flowchart of this embodiment shown in FIG.

【0016】まずオペレータが、ステップ1にて、タブ
レット13に指を接触させ、座標の指示を行うと、ステ
ップ2にて、タブレットコントローラ14によってA−
D変換された座標値およびステータスが、ステップ3に
て、図4(a)に示すデータ構造でRAMの座標・ステ
ータス記憶領域20に記憶される。
First, in step 1, the operator touches the tablet 13 with a finger to instruct the coordinates, and in step 2, the tablet controller 14 causes A-
In step 3, the D-converted coordinate value and status are stored in the coordinate / status storage area 20 of the RAM with the data structure shown in FIG.

【0017】次に、ステップ4にて、デバイスドライバ
によってステップ3で記憶された座標およびステータス
を読み出し、デバイスドライバは、ステップ5にて、ス
テータスビットS2,S1が
Next, in step 4, the device driver reads the coordinates and the status stored in step 3, and the device driver outputs the status bits S2 and S1 in step 5.

〔00〕、すなわちタブレ
ットと指が非接触状態であるか否かを判断し、非接触状
態ならばステップ4へ戻る。非接触状態でなければ、デ
バイスドライバは、ステップ6にて、ステータスビット
S2,S1が〔01〕、すなわちタブレットと指が接触
状態であるか否かを判断し、接触状態でない場合は、マ
ウスの左ボタン操作と見なし、ステップ15にて、左ボ
タンを表わすBLビットに1をセットし、ステップ16
にて、アプリケーションへ出力するデータのステータス
ビットと、座標値をセットし、ボタン情報を含むマウス
と同等のデータ(図4(c)参照)を作り、ステップ1
7にて、アプリケーションへ上記データを出力する。す
なわち、アプーリケーションは、図4(c)に示すデー
タ構造のデータを得ることができ、2つのボタンを有す
るマウスを前提としたアプリケーションはそのまま動作
することができる。
[00] That is, it is determined whether or not the tablet and the finger are in the non-contact state, and if the non-contact state, the process returns to step 4. If it is not in the non-contact state, the device driver determines in step 6 whether or not the status bits S2 and S1 are [01], that is, whether the tablet and the finger are in the contact state. It is regarded as the left button operation, and in step 15, the BL bit representing the left button is set to 1, and in step 16
Then, the status bit of the data to be output to the application and the coordinate value are set, and the data equivalent to the mouse including the button information (see FIG. 4C) is created.
At 7, the above data is output to the application. That is, the application can obtain the data having the data structure shown in FIG. 4C, and the application based on the mouse having two buttons can operate as it is.

【0018】一方、ステップ6でステータスビットS
2,S1が〔01〕であった場合、マウスの右ボタン操
作か否かの判断ルーチン(ステップ7からステップ1
4)へ進む。
On the other hand, in step 6, the status bit S
2, if S1 is [01], the routine for determining whether or not the right button of the mouse is operated (step 7 to step 1
Go to 4).

【0019】そして、ステップ7にて、ステップ4で得
た座標値を(X1,Y1)に保持し、ステップ8にて、
新たな座標・ステータスを読み出し、座標値を(X2,
Y2)に保持する。
Then, in step 7, the coordinate values obtained in step 4 are held at (X1, Y1), and in step 8,
Read the new coordinates / status and set the coordinate value to (X2,
Hold Y2).

【0020】ステップ9にて、ステップ8で得た新たな
ステータスが〔01〕でなかったらマウスの左ボタン操
作と見なし、ステップ15へ進む。〔01〕であれば、
ステップ10にて、ステップ7で保持した(X1,Y
1)とステップ8で保持した(X2,Y2)を比較し、
等しい場合はマウスの右ボタンに相当する操作はなかっ
たと見なし、左ボタン操作の処理のため、ステップ15
へ進む。一方、(X1,Y1)と(X2,Y2)が等し
くない場合、ステップ11およびステップ12におい
て、ステップ8およびステップ9と同様の処理を行い、
新たな座標値を(X3,Y3)へ保持する。
In step 9, if the new status obtained in step 8 is not [01], it is regarded as the left mouse button operation, and the process proceeds to step 15. If [01],
In step 10, held in step 7 (X1, Y
1) is compared with (X2, Y2) held in step 8,
If they are equal, it is considered that there is no operation corresponding to the right button of the mouse, and the step 15 is performed because of the processing of the left button operation.
Go to. On the other hand, when (X1, Y1) is not equal to (X2, Y2), the same processing as in Step 8 and Step 9 is performed in Step 11 and Step 12,
The new coordinate value is held in (X3, Y3).

【0021】そして、ステップ13にて、初めに得た座
標値(X1,Y1)と新たな座標値(X3,Y3)を比
較し、一致しなかった場合、マウスの右ボタンに相当す
る操作はなかったと見なし、左ボタン操作の処理のた
め、ステップ15へ進む。一方、一致した場合は、マウ
スの右ボタンに相当する操作が行われたと見なし、ステ
ップ14にて、右ボタンを表わすBRビットに1をセッ
トし、ステップ16へ進み、右ボタン操作か否かの判断
ルーチンを終了する。
Then, in step 13, the initially obtained coordinate values (X1, Y1) are compared with the new coordinate values (X3, Y3), and if they do not match, the operation corresponding to the right button of the mouse is performed. If not, the process proceeds to step 15 for the left button operation. On the other hand, if they match, it is considered that the operation corresponding to the right button of the mouse has been performed, the BR bit representing the right button is set to 1 in step 14, and the process proceeds to step 16 to determine whether or not the right button is operated. The judgment routine ends.

【0022】図6に、本実施例におけるマウス23の左
ボタンクリック操作と、右ボタンクリック操作のそれぞ
れに対応するタブレット13の操作例を示す。
FIG. 6 shows an operation example of the tablet 13 corresponding to the left button click operation and the right button click operation of the mouse 23 in this embodiment.

【0023】マウス23の左ボタン23aのクリック
(図6(a))に相当する指入力動作は、指がタブレッ
ト13から離れている状態(図6(b))から、タブレ
ット13の指定したい座標に指を接触させ(図6
(c))、再び離す(図6(d))一連の動作である。
この動作が極小時間内に行われたとき、タブレットコン
トローラ14から出力されるステータスは〔11〕とな
り、左ボタンクリック操作と見なされる(ステップ5,
6,15)。
The finger input operation corresponding to the click of the left button 23a of the mouse 23 (FIG. 6 (a)) starts from the state where the finger is away from the tablet 13 (FIG. 6 (b)), and the desired coordinates of the tablet 13 are designated. Touch your finger to
(C)), and a series of operations for releasing again (FIG. 6 (d)).
When this operation is performed within the minimum time, the status output from the tablet controller 14 becomes [11], which is regarded as the left button click operation (step 5,).
6, 15).

【0024】一方、マウス23の右ボタン23bのクリ
ック(図6(e))に相当する指入力動作は、まず、タ
ブレットの指定したい座標に指を接触させ(図6
(f))、接触させた指はそのままで、極小時間内に別
の指を任意座標に接触させ(図6(g))、再び離す
(図6(h))。このとき、タブレットコントローラ1
4から出力されるステータスは〔01〕であり、座標値
は、極小時間内で「指定座標」→「任意座標」→「指定
座標」と変化し、左ボタンクリック操作と見なされる
(ステップ5〜14)。
On the other hand, in the finger input operation corresponding to the click of the right button 23b of the mouse 23 (FIG. 6 (e)), first, the finger is brought into contact with the desired coordinates on the tablet (see FIG. 6).
(F)), with the contacted finger as it is, another finger is contacted with arbitrary coordinates within the minimum time (FIG. 6 (g)), and then released again (FIG. 6 (h)). At this time, the tablet controller 1
The status output from 4 is [01], and the coordinate value changes from "designated coordinate" to "arbitrary coordinate" to "designated coordinate" within the minimum time, and is regarded as a left button click operation (step 5). 14).

【0025】このように、この座標入力装置では、指に
よるタブレット入力で、マウス23の2つのボタン23
a,23bへの操作に相当する出力を得ることができ
る。
As described above, in this coordinate input device, the two buttons 23 of the mouse 23 are operated by the tablet input with the finger.
It is possible to obtain the output corresponding to the operation to a and 23b.

【0026】[0026]

【発明の効果】以上の説明から明らかなように、本発明
の座標入力装置では、指によるタブレット操作だけで、
2つのボタンを有するマウスと同等のデータをアプリケ
ーションへ出力することが可能となる。また、このこと
はアプリケーションに依存することなく実現されている
ので、既存のアプリケーションを全く修正することなく
使用することが可能になる。
As is apparent from the above description, the coordinate input device of the present invention can be operated by a tablet operation with a finger.
It is possible to output data equivalent to a mouse having two buttons to the application. Further, since this is realized without depending on the application, it is possible to use the existing application without any modification.

【図面の簡単な説明】[Brief description of drawings]

【図1】(a)は本発明の一実施例における座標入力装
置と端末装置の外観構成図 (b)は本発明の一実施例における座標入力装置と端末
装置の外観構成図
1A is an external configuration diagram of a coordinate input device and a terminal device according to an embodiment of the present invention, and FIG. 1B is an external configuration diagram of a coordinate input device and a terminal device according to an embodiment of the present invention.

【図2】本発明の一実施例における座標入力装置の機能
ブロック図
FIG. 2 is a functional block diagram of a coordinate input device according to an embodiment of the present invention.

【図3】本発明の一実施例における座標入力装置のハー
ドウエアブロック図
FIG. 3 is a hardware block diagram of a coordinate input device according to an embodiment of the present invention.

【図4】(a)は本発明の一実施例におけるタブレット
データのビット構成図 (b)は本発明の一実施例におけるタブレットデータの
ステータス表(c)は本発明の一実施例におけるマウス
データのビット構成図
4A is a bit configuration diagram of tablet data according to an embodiment of the present invention, FIG. 4B is a status table of tablet data according to an embodiment of the present invention, and FIG. 4C is mouse data according to an embodiment of the present invention. Bit configuration diagram

【図5】本発明の一実施例における座標入力装置の動作
手順を示すフローチャート
FIG. 5 is a flowchart showing an operation procedure of the coordinate input device in the embodiment of the present invention.

【図6】(a)は本発明の一実施例における座標入力装
置の動作手順の例示図 (b)は本発明の一実施例における座標入力装置の動作
手順の例示図 (c)は本発明の一実施例における座標入力装置の動作
手順の例示図 (d)は本発明の一実施例における座標入力装置の動作
手順の例示図 (e)は本発明の一実施例における座標入力装置の動作
手順の例示図 (f)は本発明の一実施例における座標入力装置の動作
手順の例示図 (g)は本発明の一実施例における座標入力装置の動作
手順の例示図 (h)は本発明の一実施例における座標入力装置の動作
手順の例示図
6A is an exemplary diagram of an operation procedure of a coordinate input device according to an embodiment of the present invention; FIG. 6B is an exemplary diagram of an operation procedure of a coordinate input device according to an embodiment of the present invention; (D) is an example of the operation procedure of the coordinate input device in one embodiment of the present invention. (E) is the operation of the coordinate input device in one embodiment of the present invention. Example of procedure (f) is an example of operation procedure of the coordinate input device in one embodiment of the present invention (g) is an example of operation procedure of coordinate input device in one embodiment of the present invention (h) is the present invention FIG. 7 is a view showing an example of an operation procedure of the coordinate input device in the embodiment.

【符号の説明】[Explanation of symbols]

9 座標入力部 10 座標・ステータス記憶部 11 ステータス監視部 12 出力データ生成部 13 タブレット 9 Coordinate input unit 10 Coordinate / status storage unit 11 Status monitoring unit 12 Output data generation unit 13 Tablet

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】タブレットを有し、指とタブレットの接触
により生じる電位差をA−D変換し、座標値を得る座標
入力部と、この座標値と指と前記タブレットの接触/非
接触を示すステータス値を保存する座標・ステータス記
憶部と、このステータス値を監視して左右のボタン操作
を判別するステータス監視部と、このステータス監視部
により決定された値と座標値とを2つボタンのマウスが
出力するデータ形式に変換する出力データ生成部とを備
えたことを特徴とする座標入力装置。
1. A tablet having a tablet, a coordinate input section for A-D converting a potential difference caused by the contact between the finger and the tablet to obtain a coordinate value, and a status indicating the coordinate value and contact / non-contact between the finger and the tablet. A coordinate / status storage unit that stores the values, a status monitoring unit that monitors the status values and determines left and right button operations, and a mouse that has two buttons for the values and the coordinate values determined by the status monitoring unit. A coordinate input device, comprising: an output data generation unit for converting into an output data format.
JP23794793A 1993-09-24 1993-09-24 Coordinate input device Pending JPH0793094A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23794793A JPH0793094A (en) 1993-09-24 1993-09-24 Coordinate input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23794793A JPH0793094A (en) 1993-09-24 1993-09-24 Coordinate input device

Publications (1)

Publication Number Publication Date
JPH0793094A true JPH0793094A (en) 1995-04-07

Family

ID=17022826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23794793A Pending JPH0793094A (en) 1993-09-24 1993-09-24 Coordinate input device

Country Status (1)

Country Link
JP (1) JPH0793094A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265475A (en) * 2000-03-15 2001-09-28 Ricoh Co Ltd Menu display controller and information processor and electronic blackboard system and method for controlling menu display system and method for controlling information processing system and computer readable recording medium with program for allowing the same method to be performed by computer recorded
KR100551192B1 (en) * 1997-03-31 2006-05-25 매그나칩 반도체 유한회사 Coordinate based data input system
JP2008097172A (en) * 2006-10-10 2008-04-24 Sony Corp Display and display method
JP2009276819A (en) * 2008-05-12 2009-11-26 Fujitsu Ltd Method for controlling pointing device, pointing device and computer program
JP2010113675A (en) * 2008-11-10 2010-05-20 Sharp Corp Portable electronic appliance, instruction input device, instruction input method, instruction input processing program, and computer readable recording medium
WO2014203582A1 (en) * 2013-06-21 2014-12-24 Necソリューションイノベータ株式会社 Electronic device, method for receiving input, and program
JP2016181279A (en) * 2011-04-13 2016-10-13 グーグル インコーポレイテッド Click disambiguation on touch-sensitive input device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100551192B1 (en) * 1997-03-31 2006-05-25 매그나칩 반도체 유한회사 Coordinate based data input system
JP2001265475A (en) * 2000-03-15 2001-09-28 Ricoh Co Ltd Menu display controller and information processor and electronic blackboard system and method for controlling menu display system and method for controlling information processing system and computer readable recording medium with program for allowing the same method to be performed by computer recorded
JP2008097172A (en) * 2006-10-10 2008-04-24 Sony Corp Display and display method
JP2009276819A (en) * 2008-05-12 2009-11-26 Fujitsu Ltd Method for controlling pointing device, pointing device and computer program
JP2010113675A (en) * 2008-11-10 2010-05-20 Sharp Corp Portable electronic appliance, instruction input device, instruction input method, instruction input processing program, and computer readable recording medium
JP2016181279A (en) * 2011-04-13 2016-10-13 グーグル インコーポレイテッド Click disambiguation on touch-sensitive input device
WO2014203582A1 (en) * 2013-06-21 2014-12-24 Necソリューションイノベータ株式会社 Electronic device, method for receiving input, and program
JP5988413B2 (en) * 2013-06-21 2016-09-07 Necソリューションイノベータ株式会社 Electronic device, input receiving method and program

Similar Documents

Publication Publication Date Title
JP4789232B2 (en) Information processing apparatus and input operation mode control method
US7777720B2 (en) Input system, program, and recording medium
JP3909997B2 (en) Input control device
JPH0793094A (en) Coordinate input device
US7119795B2 (en) Information processing unit, control method for information processing unit for performing operation according to user input operation, and computer program
JP3568638B2 (en) Tablet pointer
JP4771181B2 (en) Information processing apparatus, input operation mode control method, and program used for information processing apparatus
JPH06324805A (en) Electronic apparatus with tablet
JP3672642B2 (en) Coordinate input device and input system for coordinate input device
JP2006510136A (en) Navigation controller event processing
JPH0362216A (en) Portable terminal equipment
KR100503056B1 (en) Touch pad processing apparatus, method thereof and touch pad module in computer system
JP2007233953A (en) Information processor and program
JPH07141140A (en) Multi-window type computer system
JPH10187347A (en) Pointing device for information processor
JP5152421B2 (en) Information processing apparatus and program
JP2001034413A (en) Pen input system and pen input method
KR19990059505A (en) Pen input method and device using a portable information terminal
JPH11212692A (en) Touch panel input device and graphical user interface method
JP2002278699A (en) Touch panel type input device
JPH04205219A (en) Pointing device controller
JPH04184524A (en) Integrated input-output device
JPH0773009A (en) Mouse button emulating method
JP5286439B1 (en) Screen key input system and screen key input application used therefor
JPH0251722A (en) Mouse cursor display system