JPH07104964A - Selection determining method - Google Patents

Selection determining method

Info

Publication number
JPH07104964A
JPH07104964A JP27127693A JP27127693A JPH07104964A JP H07104964 A JPH07104964 A JP H07104964A JP 27127693 A JP27127693 A JP 27127693A JP 27127693 A JP27127693 A JP 27127693A JP H07104964 A JPH07104964 A JP H07104964A
Authority
JP
Japan
Prior art keywords
selection
information
gesture
pointing device
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27127693A
Other languages
Japanese (ja)
Inventor
Masashi Shimizu
真史 清水
Toshiaki Takehana
利明 竹花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Priority to JP27127693A priority Critical patent/JPH07104964A/en
Publication of JPH07104964A publication Critical patent/JPH07104964A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To solve the location deviation at the time of double clicks by acquiring a series of positional information and status information as stroke information and performing a gesture recognition processing when the status information from a pointing device is on and positional information is in a gesture recognition possible area. CONSTITUTION:A location/status detection part 11 receives the positional information and status information from a tablet 21 and converts it into the information that a computer requires according to conditions. A gesture recognition part 13 receives stroke data from the location/status detection part 11 and executes a processing that stroke data is recognized as a gesture. A command processing part 14 issues the code of a command according to the result that the gesture recognition part 13 recognizes and passes the code to an application processing part 15. The application processing part 15 makes the processing result be displayed via a display control part 12 and makes the result be outputted to a printer 23 via a printing output part 16 as necessary.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、コンピユータの入出力
制御、とりわけユーザインタフエース、すなわちコンピ
ユータのアプリケーシヨンプログラムが処理を進めるた
めに操作者による項目選択及び決定を必要とする場合
に、入力装置からの信号を制御又は処理するとともに表
示装置への出力を制御する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to input / output control of a computer, and more particularly to a user interface, i.e., when an application program of the computer requires item selection and decision by an operator in order to proceed. The present invention relates to a method for controlling or processing a signal from a display device and controlling an output to a display device.

【0002】[0002]

【従来の技術】第一従来例としては、図4に示すキーボ
ードによる選択決定方法があった。コンピユータがアプ
リケーシヨンプログラムの処理を進めるために操作者に
よる項目選択及び決定を必要とする場合に、コンピユー
タは表示画面に図4(A)に示すように複数の項目(図
では、「選択項目1」等と示しているが、具体的には、
それぞれのアプリケーシヨンプログラムで選択を必要と
する項目、例えば、フオントサイズを選択する場合であ
れば「12ポイント」、「9.5ポイント」等といった
項目。)を表示する。通常メニユー画面表示あるいは、
ダイアログボツクスのオープン、ズーム等と呼ばれるも
のである。なお、本願で項目選択及び決定という場合は
アプリケーシヨンプログラムが複数用意されている場合
にどれを起動するかを選択する場合、すなわち、いわゆ
るメニユープログラムにおける選択決定の場合をも含め
て考えることにする。
2. Description of the Related Art As a first conventional example, there has been a method of determining a selection using a keyboard shown in FIG. When the computer requires item selection and determination by the operator in order to proceed with the processing of the application program, the computer displays a plurality of items (“selection item 1” in the figure as shown in FIG. 4A) on the display screen. , Etc., but specifically,
Items that need to be selected in each application program, such as "12 points" and "9.5 points" when selecting font size. ) Is displayed. Normal menu screen display or
This is called opening the dialog box or zooming. In the present application, the term "item selection and decision" will be considered including the case where a plurality of application programs are prepared and which one is to be started, that is, the case of so-called menu program selection decision. .

【0003】図4(A)の画面が開いた際の最初の状態
では、通常「選択項目1」が他の項目とは違う状態で表
示されている。違う状態とは、カラーデイスプレイであ
れば、異なる色で表示すること、モノクロデイスプレイ
であれば、反転表示や枠を太く表示すること等によりな
される。他の項目とは違う状態で表示されているこの部
分を単にカーソルと呼ぶ場合もあるが、ここでは、その
形状が特に横に細長いものである点に着目し、カーソル
バー24と呼ぶことにする。操作者が選択を所望する選
択項目が「選択項目5」であるとしたときには、操作者
は、キーボードの矢印キー40を操作し、下向きの矢印
を4回押す。すると、コンピユータはその信号を画面操
作のコマンドとして受け取り、表示画面上のカーソルバ
ー24を選択項目5の位置にまで移動する(表示状態の
違う場所を次々と移していくことにより操作者には、カ
ーソルバー24が移動しているようにみえる)。
In the initial state when the screen of FIG. 4A is opened, "selected item 1" is normally displayed in a state different from other items. The different states are displayed by displaying different colors in the case of a color display, and by displaying in reverse or thicker the frame in the case of a monochrome display. This part, which is displayed in a state different from other items, may be simply referred to as a cursor, but here, the shape is particularly elongated in the horizontal direction, and it is referred to as a cursor bar 24. . When the selection item that the operator desires to select is “selection item 5”, the operator operates the arrow key 40 of the keyboard and presses the downward arrow four times. Then, the computer receives the signal as a command for screen operation, and moves the cursor bar 24 on the display screen to the position of the selection item 5 (the operator can move to different positions in the display state one after another). It looks like the cursor bar 24 is moving).

【0004】カーソルバー24が操作者の所望の位置に
移動した時点で、操作者が実行ボタン41を押すことに
より該項目の選択が決定される(図4(B)参照)。こ
こに、実行ボタンとは、決定ボタンとか、確認ボタンと
かと呼ばれることのあるものであり、キーボード操作に
より選択決定を行う第一従来例にあっては、キーボード
のキーのうちのいずれか、例えばリターンキー又はフア
ンクシヨンキーのうちの一つ等にそのコマンドが割り付
けられ、操作者がそのキーを押し下げたときに、コンピ
ユータがその信号を受け、決定のコマンドとして処理す
るものである。
When the cursor bar 24 moves to the position desired by the operator, the operator presses the execute button 41 to determine the selection of the item (see FIG. 4B). Here, the execute button is sometimes called a decision button or a confirmation button, and in the first conventional example for making a selection decision by keyboard operation, one of the keys of the keyboard, for example, The command is assigned to one of the return key and the function key, and when the operator depresses the key, the computer receives the signal and processes it as a decision command.

【0005】第二従来例としては、マウスによる選択決
定方法があった。図5は、第二従来例を示す図である。
マウス42は、位置情報(相対座標)とステータス情報
(クリツク信号)とをコンピユータに送出するように構
成された入力装置(ポインテイングデバイス)である。
図5の表示画面は図4に描いたものとほぼ同様である。
図示を省略したが、マウス42を用いる場合には通常、
画面上にいわゆるマウスカーソルが表示される。マウス
カーソルは、例えば、人の指を形どった形状の指標であ
って、マウスによって指示されている位置を示してい
る。操作者がマウスを動かすとマウスカーソルが画面上
を移動するととともに、図5(A)に示すカーソルバー
が移動する。
As a second conventional example, there has been a method for determining selection by using a mouse. FIG. 5 is a diagram showing a second conventional example.
The mouse 42 is an input device (pointing device) configured to send position information (relative coordinates) and status information (click signal) to a computer.
The display screen of FIG. 5 is almost the same as that shown in FIG.
Although not shown, when the mouse 42 is used,
A so-called mouse cursor is displayed on the screen. The mouse cursor is, for example, an index in the shape of a human finger and indicates a position pointed by the mouse. When the operator moves the mouse, the mouse cursor moves on the screen and the cursor bar shown in FIG. 5A moves.

【0006】マウスには、通常右ボタンと左ボタンとの
二つのボタンが設けられているが、左ボタンを1回押し
下げることをクリツクと呼び、左ボタンを2回続けて押
し下げることをダブルクリツクと呼んでいる。マウスに
よる選択決定方法にあっては、誤操作防止等のために、
クリツクにより選択をし(図5(A)参照)、ダブルク
リツクにより決定をするという操作により、項目の選択
及び決定をすることが多くなされる。
[0006] Normally, a mouse is provided with two buttons, a right button and a left button. Pressing the left button once is called a click, and pressing the left button twice in succession is called a double click. I'm calling. In the selection decision method with the mouse, in order to prevent erroneous operation,
Items are often selected and determined by an operation of selecting by clicking (see FIG. 5A) and determining by double clicking.

【0007】第三従来例として、スタイラスペンによる
マウスエミユレーシヨン(擬似マウスモード)があっ
た。スタイラスペンは、デジタイザ又はタブレツトと呼
ばれる座標検出装置の位置指示器として用いられるもの
である。座標検出装置は、感圧式であるか、電磁誘導方
式であるか、光学式であるか等を問わず、特定の位置検
出面を有し、その上で位置指示器により指示される位置
に対応する座標をコンピユータ側に送出するように構成
された入力装置である。座標検出装置の位置指示器は、
パツク形状をした一般にカーソルと呼ばれるものと、筆
記具形状をしたスタイラスペンと呼ばれるものとがあ
る。本願において、ポインテイングデバイスというとき
には、座標検出装置の位置指示器としてのカーソルや、
スタイラスペン、そしてマウスをも含めていう概念と考
える。
As a third conventional example, there is a mouse emulation (pseudo mouse mode) using a stylus pen. The stylus pen is used as a position indicator of a coordinate detecting device called a digitizer or a tablet. The coordinate detection device has a specific position detection surface regardless of whether it is a pressure-sensitive type, an electromagnetic induction type, an optical type, or the like, and corresponds to a position pointed by a position indicator on it. The input device is configured to output the coordinates to be transmitted to the computer side. The position indicator of the coordinate detection device is
There are a general-purpose cursor having a puck shape and a stylus pen having a writing instrument shape. In the present application, when a pointing device is mentioned, a cursor as a position indicator of the coordinate detection device,
Think of it as a concept that includes a stylus pen and a mouse.

【0008】コンピユータにステータス情報を送るため
のボタンがマウスに設けられているのと同様に、位置指
示器としてのカーソルやスタイラスペンにもスイツチが
あって、コンピユータに座標情報のみならず、スイツチ
情報を送出するように構成されている。スタイラスペン
の場合には、ペン先の押圧力を検知するスイツチ又はペ
ン軸に対して直角の方向の押圧力を検知するスイツチ
(サイドスイツチ)あるいは、それらのいずれもが設け
られており、ステータス情報を(座標検出装置を介し
て)コンピユータに送出する。
Just as a mouse is provided with a button for sending status information to the computer, the cursor or stylus pen as a position indicator also has a switch, and the computer has not only coordinate information but also switch information. Is configured to deliver. In the case of a stylus pen, a switch that detects the pressing force of the pen tip, a switch that detects the pressing force in the direction perpendicular to the pen shaft (side switch), or both of them is provided. Is sent to the computer (via the coordinate detection device).

【0009】スタイラスペンをマウスの代わりとして用
いる選択決定方法(マウスエミユレーシヨンモード)に
あっては、座標検出装置にて検出されるXY座標(絶対
座標)は、コンピユータに組み込まれたタブレツトドラ
イバーの働きにより相対座標に変換されて、マウスドラ
イバーに渡される。また、ペン先の押圧に関するステー
タス情報は、タブレツトドライバーの働きによりマウス
の左ボタンの押し下げ信号に変換されて、マウスドライ
バーに渡される。ここに、タブレツトドライバー及びマ
ウスドライバーはコンピユータのソフトとして組み込ま
れるプログラムであって、いわゆるデバイスドライバー
である。これにより、マウス操作と同様に位置指示器と
してのスタイラスペン又はカーソルにより選択決定方法
が実現できる。
In the selection determining method (mouse emulation mode) in which the stylus pen is used instead of the mouse, the XY coordinates (absolute coordinates) detected by the coordinate detecting device are the tablet built in the computer. It is converted to relative coordinates by the driver's action and passed to the mouse driver. Further, the status information regarding the pressing of the pen tip is converted into a signal for pressing the left button of the mouse by the function of the tablet driver, and is passed to the mouse driver. Here, the tablet driver and the mouse driver are so-called device drivers, which are programs installed as software of the computer. As a result, similarly to the mouse operation, the selection determining method can be realized by the stylus pen or the cursor as the position indicator.

【0010】[0010]

【発明が解決しようとする課題】近年は、スタイラスペ
ンがマンマシンインタフエースの見地から着目されてき
ているが、単なるマウスエミユレーシヨンではない、筆
記具形状の位置指示器にもっとふさわしい選択決定方法
があるに違いないと本発明の発明者は考えた。本発明の
第一の目的は、スタイラスペンにふさわしい選択決定方
法を提供することにある。
In recent years, a stylus pen has been attracting attention from the viewpoint of man-machine interface, but it is more than just a mouse emulation, a selection method more suitable for a writing instrument-shaped position indicator. The inventor of the present invention considered that there must be. A first object of the present invention is to provide a selection determination method suitable for a stylus pen.

【0011】また、スタイラスペンにてマウスエミユレ
ーシヨンを行う場合の問題点の一つにダブルクリツクの
際の位置ずれの問題がある。マウスの場合は、マウスを
動かさずに左ボタンをすばやく2回クリツクすることは
それ程困難なことではない。しかし、スタイラスペンに
てダブルクリツクをすることは、最初のクリツクと二度
目のクリツクとの間で指示位置がずれてしまうのが普通
である。したがって、ダブルクリツクを検知するために
ある程度の位置ずれをも受容するだけの柔軟性を持った
処理をする必要があった。ソフト的にそれだけの処理を
する必要があるのなら、その処理能力をもっとスタイラ
スペンにふさわしい処理に振り向けることができるので
はないかと本発明の発明者は考えた。本発明の第二の目
的は、スタイラスペンのダブルクリツクの際の位置ずれ
の問題を解決する選択決定方法を提供することにある。
Further, one of the problems in performing mouse emulation with a stylus pen is the problem of misalignment during double clicking. In the case of a mouse, it is not so difficult to click the left button quickly twice without moving the mouse. However, when double-clicking with a stylus pen, the indicated position usually shifts between the first click and the second click. Therefore, in order to detect the double click, it is necessary to perform a process having a flexibility to accept a certain amount of displacement. The inventor of the present invention thought that the processing ability could be devoted to a processing more suitable for a stylus pen if the processing needs to be performed softly. It is a second object of the present invention to provide a selection determining method which solves the problem of displacement when the stylus pen is double clicked.

【0012】さらにまた、スタイラスペンの最大の特徴
は、ポインテイングデバイスとしての用途だけではな
く、手書き文字入力の道具としての位置付けを有する点
にある。ポインテイングデバイスとしての用途にあって
は、主に座標値を個々のデータとして扱い、それをステ
ータス情報と組合せて選択決定方法を実現していた。と
ころが、手書き文字入力の場合は、座標値とステータス
情報との組合せの情報を個々のデータとしてではなく、
一連のデータ(ストロークデータ)として扱い、その連
続性に意味を持たせている。スタイラスペンを扱う際の
マウスエミユレーシヨン(あるいはもう少し広くいえ
ば、ポインティング)とストロークデータの取得(イン
キング)との切り分けの問題は、ペンコンピューティン
グを目指す者にとって共通の課題である。本発明の第三
の目的は、ポインテイングとインキングとの切り分けの
問題を解決することにある。ここにストロークデータと
は、インクデータとも呼ばれることのある情報であっ
て、ペンダウンから次のペンアップまでの座標値のつな
がりに意味を持たせた情報である。このストロークデー
タは、文字認識処理やジエスチヤー認識処理の対象とな
る。
Furthermore, the most important feature of the stylus pen is that it is not only used as a pointing device, but also as a tool for inputting handwritten characters. In the application as a pointing device, coordinate values were mainly treated as individual data and combined with status information to realize a selection determination method. However, in the case of handwritten character input, the information of the combination of coordinate values and status information is not individual data, but
It is treated as a series of data (stroke data), and its continuity is given meaning. The problem of separating the mouse emulation (or pointing, to put it a little broader) from the acquisition of stroke data (inking) when handling a stylus pen is a common problem for those who aim for pen computing. A third object of the present invention is to solve the problem of separating pointing and inking. Here, the stroke data is information that is sometimes referred to as ink data, and is information that gives a meaning to the connection of coordinate values from pen down to next pen up. This stroke data is the target of character recognition processing and gesture recognition processing.

【0013】本発明の発明者は、このように問題点を分
析して見た結果、ジエスチヤーコマンドがこれらの問題
を解決する選択決定方法をもたらすのではないかと考え
た。従来は、ジエスチャーコマンドを認識できる領域を
複数設けて選択決定に利用するという考えはなかった。
しかし、複数項目の選択決定方法という問題に限定して
考えるとき、ジエスチヤーコマンドを認識できる領域を
複数設けて、それらの領域のうちいずれの領域でジエス
チヤーがなされたかの情報とともにストロークデータを
処理することにより、上記の三つの目的が解決されるの
ではないかと考えついた。
As a result of analyzing the problems as described above, the inventor of the present invention has thought that the gesture command may provide a selection determining method for solving these problems. In the past, there was no idea to provide a plurality of areas in which the gesture command can be recognized and use it for selection determination.
However, when considering only the problem of selecting and determining a plurality of items, the stroke data is processed together with the information indicating in which area the gesture command has been made by providing a plurality of areas in which the gesture command can be recognized. I thought that this would solve the above three purposes.

【0014】[0014]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係る選択決定方法は、操作者が表示画面を
確認しつつポインテイングデバイスを操作することによ
り位置情報とステータス情報とをコンピユータに入力
し、それに基づいてコンピユータが複数項目のうちの操
作者の所望の項目を選択及び決定するコンピユータの選
択決定方法において、前記表示画面上に前記複数項目を
表示する項目表示領域を各々設けるとともに該項目表示
領域毎にそれに対応する前記ポインテイングデバイスの
可動域にジエスチヤー認識可能領域を設け、前記ポイン
テイングデバイスからの位置情報の変化に従い、該項目
表示領域の表示状態を変化させ、前記ポインテイングデ
バイスからのステータス情報がオンで、かつ前記位置情
報が前記ジエスチヤー認識可能領域であるときに、一連
の位置情報及びステータス情報をストローク情報として
取得し、該ストローク情報についてジエスチヤー認識処
理を実行し、該ジエスチヤー認識処理の結果により前記
ジエスチヤー認識可能領域に対応する項目を選択及び決
定するものである。
In order to achieve the above object, in the selection and determination method according to the present invention, the operator operates the pointing device while checking the display screen to obtain the position information and the status information. In a computer selection / determination method of inputting to a computer, and based on which the computer selects and determines a desired item of an operator from among a plurality of items, an item display area for displaying the plurality of items is provided on the display screen. Together with each item display area, a gesture recognizable area is provided in the movable range of the pointing device corresponding to the item display area, and the display state of the item display area is changed according to the change of the position information from the pointing device. Status information from the towing device is on and the location information is the When the area is a recognizable area, a series of position information and status information is acquired as stroke information, and the gesture recognition processing is executed for the stroke information, and the item corresponding to the gesture recognizable area is displayed according to the result of the gesture recognition processing. It is a choice and a decision.

【0015】上記構成において、好ましくは、前記スト
ローク情報取得の条件を、前記ポインテイングデバイス
からのステータス情報がオンで、かつ前記位置情報が前
記ジエスチヤー認識可能領域であるのみならず、それに
加えて該位置情報の変化が所定値以上であることとす
る。
In the above structure, preferably, the condition for acquiring the stroke information is not only the status information from the pointing device being on and the position information being the gesture recognizable area, but in addition to that, It is assumed that the change in the position information is a predetermined value or more.

【0016】さらに、上記構成において、望ましくは、
前記ジエスチヤー認識可能領域が細長い略矩形の形状を
有し、前記ジエスチヤー認識処理の対象が該ジエスチヤ
ー認識可能領域の長手方向に伸びる線分である。
Further, in the above structure, it is desirable that
The dust recognizable area has an elongated rectangular shape, and the target of the dust recognizing process is a line segment extending in the longitudinal direction of the dust recognizable area.

【0017】また、上記構成において、好ましくは、前
記ポインテイングデバイスがスタイラスペンである。
In the above structure, preferably, the pointing device is a stylus pen.

【0018】さらにまた、上記構成において好ましく
は、前記スタイラスペンの位置検出面と前記表示画面と
を積層配置させ、前記選択項目表示領域と前記ジエスチ
ヤー認識可能領域とを重ね合わせたものである。
Further, in the above structure, preferably, the position detection surface of the stylus pen and the display screen are arranged in a stack, and the selection item display area and the vestier recognizable area are overlapped with each other.

【0019】[0019]

【作用】本発明に係る選択決定方法は、上記のように構
成されているから、ポインテイングデバイスを操作する
ことにより選択及び決定のコマンドを入力できるととも
に、そのジエスチヤー認識の際に用いられるストローク
データがもつ座標情報がいずれの選択項目を選択したも
のであるかの情報をも同時に入力できるので、操作性の
向上をもたらすように働く。
Since the selection / determination method according to the present invention is configured as described above, the selection / determination command can be input by operating the pointing device, and the stroke data used for the gesture recognition can be input. Since it is possible to simultaneously input the information indicating which selection item the coordinate information held by has been selected, it works to improve the operability.

【0020】さらに、ジエスチヤー認識に用いるストロ
ークの長さが所定の長さ以上であるときにストロークデ
ータの取得をすることにより誤操作による入力を回避す
る。
Further, when the stroke length used for the gesture recognition is equal to or longer than a predetermined length, the stroke data is acquired to avoid an input due to an erroneous operation.

【0021】ジエスチヤー認識領域を細長い略矩形の形
状にし、認識対象をその長手方向に伸びる線分とするこ
とは、選択項目を文字列にて表現し、それを選択決定す
るジエスチヤーコマンドを簡単なものにする。
By making the gesture recognition area into a long and narrow rectangular shape and making the recognition target a line segment extending in the longitudinal direction, the selection item is expressed by a character string, and the gesture command for selecting and determining the selection item is simple. Make something

【0022】ポインテイングデバイスをスタイラスペン
とすることは、ポインテイングとインキングとの合理的
な融合をもたらす。
Using the pointing device as a stylus pen provides a rational fusion of pointing and inking.

【0023】位置検出面と表示画面とを積層配置するこ
とは、視認位置と入力位置とを一致させるように働き、
よりスタイラスペンにふさわしい選択決定方法を実現す
る。
Laminating and arranging the position detection surface and the display screen works so as to match the visual recognition position and the input position,
Realize a selection decision method more suitable for a stylus pen.

【0024】[0024]

【実施例】以下、図面を参照しつつ、本発明に係る選択
決定方法の実施例について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a selection determining method according to the present invention will be described below with reference to the drawings.

【0025】図1は、本発明に係る選択決定方法の実施
例を操作者の行う操作の面から説明する図である。最も
好ましい実施例にあっては、用いるポインテイングデバ
イス20は、スタイラスペン(以下、必要に応じて「ペ
ン」と略す。)であり、タブレツトの位置検出面と表示
装置の表示画面とは、積層配置される。また、タブレツ
トは、ペンダウンのときのみならず、ペンが浮いている
状態、すなわち、位置検出面についてはいないがある程
度の高さで近づいている状態、又は位置検出面にペン先
が付いているがペン先のスイツチが押されるほどには力
を加えていない状態でも座標を読み取り、コンピユータ
に送出しているものとする。例えば、本願と同一出願人
の提供する「ペントップ」(ペントップは株式会社ワコ
ムの商標)は、この条件を満たしている。この場合は、
操作者は、選択と決定の操作をなんら区別することな
く、すなわち表示画面上のカーソルバー24がどこにあ
るかを意識することなく、所望の選択項目上にスタイラ
スペンのペン先を持っていきその領域内でその長手方向
に線分を描く(図1(A)参照)。この単純な操作に
て、選択決定がなされる。線分を描く際にその終了は、
ペンアップによってなされる(図1(B)参照)。
FIG. 1 is a diagram for explaining an embodiment of the selection determining method according to the present invention in terms of operations performed by an operator. In the most preferred embodiment, the pointing device 20 used is a stylus pen (hereinafter abbreviated as "pen" as needed), and the position detection surface of the tablet and the display screen of the display device are laminated. Will be placed. Also, the tablet is not only when the pen is down, but also when the pen is floating, that is, when the position detection surface is approaching at a certain height, although it is not on the position detection surface. It is assumed that the coordinates are read and sent to the computer even when the force is not applied enough to push the pen tip switch. For example, "Pentop" (pentop is a trademark of Wacom Co., Ltd.) provided by the same applicant as this application satisfies this condition. in this case,
The operator takes the pen tip of the stylus pen on the desired selection item without making any distinction between the selection operation and the decision operation, that is, without being aware of where the cursor bar 24 on the display screen is. A line segment is drawn in the region in the longitudinal direction (see FIG. 1A). The selection is determined by this simple operation. The end when drawing a line segment
It is made by pen-up (see FIG. 1 (B)).

【0026】位置検出面と表示画面とが分離している実
施例では、操作者は選択操作と決定操作との区別を意識
せざるをえなくなる。その場合、操作者は、ペンを位置
検出面から浮かした状態、又はペン先は付いているが押
圧力を加えていない状態で、ペンを動かす。それに応じ
てカーソルバー24が動き、その動きを操作者が視認し
つつ、カーソルバー24が所望の位置に来たところでそ
の長手方向に線分を描く操作をする。これにより選択決
定がなされる。
In the embodiment in which the position detection surface and the display screen are separated, the operator is forced to be aware of the distinction between the selection operation and the decision operation. In that case, the operator moves the pen with the pen floating from the position detection surface, or with the pen tip attached but no pressing force applied. In response to this, the cursor bar 24 moves, and while the operator visually recognizes the movement, when the cursor bar 24 reaches a desired position, an operation of drawing a line segment in the longitudinal direction is performed. This makes a selection decision.

【0027】座標検出装置がペンの浮いている状態では
座標を検出しないものである場合には、更に操作が複雑
となるが、サイドスイツチの併用等により同様の操作が
可能である。また、本発明はスタイラスペンに適しては
いるもののスタイラスペンではなく、位置指示器として
のカーソルや、マウスにても同様の操作が可能である。
マウスでジエスチヤー入力をする場合には、いわゆるド
ラッグアンドドロップの操作をすることになる。
If the coordinate detecting device does not detect the coordinates when the pen is floating, the operation becomes more complicated, but the same operation can be performed by using a side switch together. Further, although the present invention is suitable for a stylus pen, the same operation can be performed with a cursor as a position indicator or a mouse instead of the stylus pen.
When performing a gesture input with a mouse, a so-called drag-and-drop operation is performed.

【0028】図2は、本発明に係る選択決定方法を実現
する装置を示す機能ブロック図である。コンピユータ1
0は、一般的なコンピユータの構成を備えており、入力
装置として、タブレツト21(座標検出装置)を、出力
装置として、表示部22を備えている。タブレツト21
と表示部22とは、前述したように好ましくは、位置検
出面と表示画面とが積層配置され、入力位置と出力位置
とが一致するように構成される。
FIG. 2 is a functional block diagram showing an apparatus for realizing the selection determining method according to the present invention. Computer 1
Reference numeral 0 has a general computer configuration, and includes a tablet 21 (coordinate detection device) as an input device and a display unit 22 as an output device. Tablet 21
As described above, the display unit 22 and the display unit 22 are preferably configured such that the position detection surface and the display screen are stacked and arranged so that the input position and the output position match.

【0029】位置/ステータス検出部11、表示制御部
12、ジエスチヤー認識部13、コマンド処理部14、
アプリケーシヨン処理部15、印刷出力部16等は、い
ずれもコンピユータ10のCPUがその時々に応じて必
要なプログラムを読み込んでそのプログラムにしたがっ
て処理を実行するときのCPUの果たす役割を便宜的に
空間的に分離して配置し、それらの関係を示したもの、
すなわち機能ブロック図として示したものである。
The position / status detection unit 11, the display control unit 12, the gesture recognition unit 13, the command processing unit 14,
The application processing unit 15, the print output unit 16 and the like each have a space for convenience of playing a role of the CPU when the CPU of the computer 10 reads a necessary program according to the time and executes the process according to the program. Placed separately and arranged to show their relationship,
That is, it is shown as a functional block diagram.

【0030】それぞれの働きを大まかにいえば、位置/
ステータス検出部11は、タブレツト21からの座標情
報及びステータス情報を受け取り、それを条件に応じて
コンピユータ10が必要な情報に変換する部分である。
ジエスチヤー認識部13は、位置/ステータス検出部1
1からストロークデータを受け取ってそのストロークデ
ータをジエスチヤーとして認識する処理を実行する部分
である。コマンド処理部14は、ジエスチヤー認識部1
3が認識した結果に応じてコマンドのコードを発行して
アプリケーシヨン処理部15に渡す部分である。
Roughly speaking of each function, position /
The status detection unit 11 is a unit that receives coordinate information and status information from the tablet 21, and converts the coordinate information and status information into necessary information according to the conditions.
The gesture recognition unit 13 is the position / status detection unit 1.
This is a part that receives the stroke data from 1 and recognizes the stroke data as a gesture. The command processing unit 14 includes the gesture recognition unit 1
3 is a part that issues a command code in accordance with the result recognized by 3 and passes it to the application processing section 15.

【0031】図2に示したシステムでは、必ずしもキー
ボードを必要とするものではないが、もしも操作者がキ
ーボードの併用を望む場合に、それを接続して用いるこ
とができる。その時、キーボードのコマンド割付キーか
ら入力されたコードがアプリケーシヨン処理部15に渡
されることになるが、それと同様のコードを発行してア
プリケーシヨン処理部15に渡す部分がコマンド処理部
14であると考えることができる。
The system shown in FIG. 2 does not necessarily require a keyboard, but if the operator wants to use the keyboard together, it can be used by connecting it. At that time, the code input from the command assignment key of the keyboard is passed to the application processing section 15, but the command processing section 14 issues a code similar to that and passes it to the application processing section 15. I can think.

【0032】なお、ポインテイングデバイスをスタイラ
スペンではなく、マウスとする場合には、タブレツト2
1がマウスに、位置/ステータス検出部11、ジエスチ
ヤー認識部13、コマンド処理部14がマウスドライバ
ーに置き代わることになる。その時、ジエスチヤー認識
部13は、ドラッグアンドドロップの認識をする部分と
なる。
If the pointing device is a mouse instead of a stylus pen, the tablet 2
1 replaces the mouse, and the position / status detector 11, the gesture recognizer 13, and the command processor 14 replace the mouse driver. At that time, the gesture recognition unit 13 becomes a unit for recognizing drag and drop.

【0033】アプリケーシヨン処理部15は、コンピユ
ータの応用プログラムを実行する部分であり、その応用
プログラムの処理結果を表示制御部12を介して表示部
22に表示させる。また、操作者の必要に応じて、印刷
出力部16を介してプリンタ23に出力させる。なお、
印刷出力部16及びプリンタ23は、本発明に係る選択
決定方法には、直接的な関係はないが、コンピユータ1
0に通常設けられる周辺装置である。
The application processing section 15 is a section for executing the application program of the computer, and displays the processing result of the application program on the display section 22 via the display control section 12. In addition, the printer 23 is made to output via the print output unit 16 as required by the operator. In addition,
The print output unit 16 and the printer 23 are not directly related to the selection determination method according to the present invention, but the computer 1
0 is a peripheral device normally provided.

【0034】アプリケーシヨン処理部15が様々な処理
を実行する上で、必要な操作者の入力は、アプリケーシ
ヨン処理部15が必要なメニユー画面、ダイアログボツ
クス、ズーム等を開いて表示制御部12を介して表示部
22に表示させ、操作者の入力を促し、操作者がそれに
答えて、タブレツト21を介して入力を行うことにより
なされる。以下、煩雑を避けるため、前述した最適な実
施例についてさらに詳しく説明をする。
When the application processing unit 15 executes various processes, the operator's input required is to open the display control unit 12 by opening the menu screen, dialog box, zoom, etc. required by the application processing unit 15. This is done by displaying it on the display unit 22 via the prompt, the operator's input, and the operator responding to the input and inputting through the tablet 21. Hereinafter, in order to avoid complication, the above-described optimum embodiment will be described in more detail.

【0035】今、アプリケーシヨン処理部15の働きに
より表示制御部12を介して、表示部22に図1(A)
に示すような画面、すなわち複数の選択項目が表示され
ているとする。ペンダウンかペンアップかを問わずペン
先が位置検出面に近づいている状態では、タブレツト2
1は、スタイラスペンにより指示されている位置のXY
座標を位置/ステータス検出部11に送出している。そ
して、位置/ステータス検出部11は、アプリケーシヨ
ン処理部15に絶えず座標情報を送っている(又はアプ
リケーシヨン処理部15が座標情報を絶えずモニターし
ている)。アプリケーシヨン処理部15は、それぞれの
メニユー画面毎に座標と項目とを対応させるテーブルを
備えており、それにより選択項目の反転表示等の表示状
態を変える処理を表示制御部12及び表示部22を介し
て実行している。このように、表示状態の変更処理に関
しては、タブレツト21から、位置/ステータス検出部
11、アプリケーシヨン処理部15、表示制御部12、
表示部22という流れの処理がなされている。
Now, the application processing unit 15 works to display the image on the display unit 22 via the display control unit 12 as shown in FIG.
It is assumed that a screen as shown in, that is, a plurality of selection items are displayed. When the pen tip is approaching the position detection surface regardless of whether the pen is down or up, the tablet 2
1 is the XY position indicated by the stylus pen
The coordinates are sent to the position / status detection unit 11. Then, the position / status detection unit 11 constantly sends the coordinate information to the application processing unit 15 (or the application processing unit 15 constantly monitors the coordinate information). The application processing unit 15 is provided with a table in which coordinates and items are associated with each menu screen, so that the display control unit 12 and the display unit 22 can perform processing for changing the display state such as reverse display of selected items. Running through. As described above, regarding the display state changing process, from the tablet 21, the position / status detecting unit 11, the application processing unit 15, the display control unit 12,
Processing of the flow of the display unit 22 is performed.

【0036】そして、それとは別処理にて、タブレツト
21、位置/ステータス検出部11、ジエスチヤー認識
部13、コマンド処理部14、アプリケーシヨン処理部
15という処理の流れがある。前述した表示状態変更処
理(ポインテイング処理)が座標情報のみに基づくもの
であるのに対し、この処理は、座標情報とステータス情
報との組合せ、すなわちステータス情報がオンの時の座
標情報(ストロークデータ)を扱うものであるので、イ
ンキング処理という位置付けができる。
In addition to the above processing, there is a processing flow of the tablet 21, the position / status detection unit 11, the gesture recognition unit 13, the command processing unit 14, and the application processing unit 15. While the display state changing process (pointing process) described above is based on only coordinate information, this process is a combination of coordinate information and status information, that is, coordinate information when the status information is on (stroke data). ), It can be positioned as an inking process.

【0037】このインキング処理について更に詳しく述
べる。表示部22に表示された選択項目の各部分を項目
表示領域と呼ぶ。そして、各々の項目表示領域に対応す
るタブレツト21の領域をそれぞれジエスチヤー認識可
能領域と位置付ける。好ましくは、この領域は、いずれ
も細長い横長の略矩形の形状をした領域として設けられ
る。項目の内容を文字列で表現し、かつ多くの項目を並
べるのに適しているからである。また、タブレツト上
で、ある指示位置がその領域に属しているか否かを判定
するのにも適しているからである。ジエスチヤー認識可
能領域の大きさは、項目表示領域をカバーする大きさで
あることが望ましく、一回り大きい大きさとすることも
できる。
The inking process will be described in more detail. Each part of the selection item displayed on the display unit 22 is called an item display area. Then, the areas of the tablet 21 corresponding to the respective item display areas are respectively positioned as the recognizable areas. Preferably, each of the regions is provided as a region having a long and narrow substantially oblong shape. This is because it is suitable for expressing the contents of items with a character string and arranging many items. It is also suitable for determining whether or not a designated position belongs to the area on the tablet. The size of the gesture recognizable area is preferably a size that covers the item display area, and may be slightly larger.

【0038】操作者がジエスチヤー認識可能領域内でペ
ンダウンし、次のペンアップまでに所定距離以上の移動
があったときに、位置/ステータス検出部11は、スト
ロークデータを取得し、ジエスチヤー認識部13に処理
を引渡す。ジエスチヤー認識部13は、そのストローク
データを解析し、予め定められた認識対象に合致する場
合、ここでは、長手方向に伸びる線分である場合に、選
択決定コマンドであることを認識し、コマンド処理部1
4に処理を引渡す。コマンド処理部14は、選択決定コ
マンドに対応するコードを発行し、アプリケーシヨン処
理部15にそれを渡す。
When the operator pen downs in the area where the gesture can be recognized and has moved by a predetermined distance or more before the next pen up, the position / status detector 11 acquires the stroke data and the gesture recognizer 13 Hand over the processing to. The gesture recognition unit 13 analyzes the stroke data, recognizes that it is a selection determination command if it matches a predetermined recognition target, here, if it is a line segment extending in the longitudinal direction, and executes command processing. Part 1
The process is handed over to 4. The command processing unit 14 issues a code corresponding to the selection determination command and passes it to the application processing unit 15.

【0039】なお、ここで、ジエスチヤー認識部13の
扱うデータをストロークデータとしたが、ジエスチヤー
認識部13の認識すべきジエスチヤーの対象が選択決定
のジエスチヤーというただ1種類のジエスチヤーである
場合には、ペンダウンからペンアップに至るまでの複数
のデータのうち最初と最後のデータだけに基づいて、認
識を行うことも可能である。ジエスチヤー認識というと
きに、本願においては、そのような認識処理をも含む概
念と考える。
Here, the data handled by the gesture recognizing unit 13 is stroke data. However, when the target of the vestier to be recognized by the vestier recognizing unit 13 is only one type of tier that is a selection determinant, It is also possible to perform recognition based on only the first and last data among a plurality of data from pen down to pen up. In the present application, the term “geertier recognition” is considered as a concept including such recognition processing.

【0040】もっとも、複数のジエスチヤーを扱いたい
場合、例えば、項目の選択決定以外にメニユー画面のス
クロール等の画面操作コマンドをもジエスチヤーにより
入力したい場合には、ペンダウンからペンダウンまでの
一連のデータのすべて、すなわちストロークデータの全
体を認識処理の対象とすべきこととなる。
However, in the case where it is desired to handle a plurality of gestures, for example, when it is desired to input a screen operation command such as scrolling of a menu screen in addition to the item selection decision, the series of data from pen down to pen down That is, the entire stroke data should be the target of recognition processing.

【0041】図3は、本発明に係る選択決定方法のうち
インキング処理を示すフローチャートである。すなわ
ち、図2にいう位置/ステータス検出部11から、ジエ
スチヤー認識部13を経てコマンド処理部14に至る一
連の処理の流れを示している。この一連の処理の流れと
は、別処理にて表示状態変更処理(ポインティング処
理)がなされるのは前述のとおりである。
FIG. 3 is a flowchart showing the inking process in the selection determining method according to the present invention. That is, the flow of a series of processes from the position / status detection unit 11 shown in FIG. 2 to the command recognition unit 14 via the gesture recognition unit 13 is shown. As described above, the display state changing process (pointing process) is performed separately from this series of processes.

【0042】インキング処理を開始すると(ステップ1
00)、まずステータス情報を見る(ステップ10
1)。ペンアップの状態では、インキングを要しないの
で戻る。ペンダウンであるときにはジエスチヤー認識可
能領域かを判定する(ステップ102)。XY座標がそ
れらを示す矩形領域のいずれかに入っているか否かによ
り判断する。いずれの領域にもない場合は、インキング
を要しないので戻る。
When the inking process is started (step 1
00), first look at the status information (step 10
1). In the pen-up state, no inking is required, so the process returns. When the pen is down, it is determined whether or not it is a region in which the gesture can be recognized (step 102). It is determined whether or not the XY coordinates are in any of the rectangular areas indicating them. If it is not in any of the areas, no inking is required, and the process returns.

【0043】その他、操作者が一旦は、ジエスチヤー認
識領域内にペンダウンしたもののわずかしか動かさずに
途中でとめた場合には、103、104、106を経て
戻り、また、わずかに動かして途中でペンアップをした
場合には、103、105、106を経て、戻る。操作
者の方針変更を許容するためである。
In addition, when the operator temporarily moves down the pen into the gesture recognition area but stops the pen halfway without moving it, the operator returns through 103, 104, and 106, and moves slightly and moves the pen halfway. When it is up, it goes back through 103, 105 and 106. This is to allow the operator to change the policy.

【0044】ジエスチヤー認識可能領域でのペンダウン
の状態でのペンの移動が所定距離以上であるときに初め
てジエスチヤー認識処理に入る(ステップ107)。前
述したように、もしも選択決定コマンドという1種類の
コマンドだけを認識すれば足りる場合には、ステップ1
06の結果がYESであるという結果だけから、選択決
定コマンドを認識することも可能である。しかし、ほか
に認識すべき他の種類のコマンドがある場合には、ペン
ダウン(ステップ101)からペンアップ(ステップ1
05)までの一連のストロークデータを取得してそれを
解析する処理を実行することになる。ステップ108の
コード発行は、コマンド処理部14が実行する処理であ
る。この一連のインキング処理は、何度も繰返される。
When the movement of the pen in the pen-down state in the gesture recognizable area is a predetermined distance or more, the gesture recognition processing is started (step 107). As described above, if it is sufficient to recognize only one type of command, which is the selection determination command, step 1
It is also possible to recognize the selection decision command only from the result that the result of 06 is YES. However, if there is another type of command to be recognized, pen down (step 101) to pen up (step 1)
The process of acquiring a series of stroke data up to 05) and analyzing it will be executed. The code issuance in step 108 is a process executed by the command processing unit 14. This series of inking processes is repeated many times.

【0045】以上見て来たように、本発明の選択決定方
法は、従来のマウスを踏襲した伝統的な選択決定方法、
すなわちカーソルバーをクリツク、ダブルクリツクする
という因習を打破し、新たな選択決定方法を提案するも
のである。すなわち、カーソルバーをジエスチヤー認識
可能領域として、それに対しジエスチヤーコマンドを入
力することにより、選択決定を実行するという選択決定
方法を提案するものである。
As described above, the selection determining method of the present invention is the traditional selection determining method that follows the conventional mouse,
In other words, it breaks the convention of clicking and double clicking the cursor bar and proposes a new selection determination method. That is, the present invention proposes a selection determination method in which the cursor bar is used as a gesture recognizable area, and a selection command is input to the area to perform selection determination.

【0046】図2には、描くのを省略したが、スタイラ
スペンを用いるコンピユータには、文字認識部をも設け
るのが一般的である。本発明におけるの位置/ステータ
ス検出部11の処理は、文字認識部にストロークデータ
を引渡すための処理とも共通にできる点において優れて
いる。
Although not shown in FIG. 2, it is general that a computer using a stylus pen is also provided with a character recognition section. The processing of the position / status detection unit 11 in the present invention is excellent in that it can be shared with the processing for passing stroke data to the character recognition unit.

【0047】また、本発明に係る選択決定方法は、マウ
スエミユレーシヨンによるペン操作を越えるものであ
り、格段の操作性の向上をもたらすものであるが、逆に
この選択決定方法が普及した際に、ペンのためのドライ
バーが一般的になった場合にもマウスによるペンエミユ
レーシヨンを可能にするものでもある。マウスによるド
ラッグアンドドロップがジエスチヤーコマンドの入力の
代用として使えるからである。
Further, although the selection determining method according to the present invention goes beyond the pen operation by the mouse emulation and brings about remarkable improvement in operability, on the contrary, this selection determining method has become popular. In this case, even if the driver for the pen becomes popular, it also enables the pen emulation with the mouse. This is because drag-and-drop with the mouse can be used as a substitute for the input of the gesture command.

【0048】[0048]

【効果】本発明に係る選択決定方法は、上記の構成を有
するから、以下の効果を有する。
[Effect] Since the selection determining method according to the present invention has the above-mentioned configuration, it has the following effects.

【0049】筆記具に似た位置指示器としてのスタイラ
スペンにふさわしい選択決定方法を提供することができ
た。具体的には、ペンの上下動というスタイラスペンに
ふさわしくない動きから操作者を開放する。また、クリ
ツクやダブルクリツクの際に発生する騒音から操作者を
開放する。
It was possible to provide a selection determination method suitable for a stylus pen as a position indicator similar to a writing instrument. Specifically, the operator is relieved from the vertical movement of the pen, which is not suitable for a stylus pen. In addition, the operator is freed from the noise generated during the click and the double click.

【0050】ペンのダブルクリツクの際の位置ずれの問
題を解決した。
The problem of displacement of the pen when double-clicked was solved.

【0051】インキングとポインテイングとの有機的な
融合を可能にした。
An organic fusion of inking and pointing is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明に係る選択決定方法における操作を示
す図
FIG. 1 is a diagram showing an operation in a selection determination method according to the present invention.

【図2】 本発明に係る選択決定方法を実現する装置を
示す機能ブロック図
FIG. 2 is a functional block diagram showing an apparatus that realizes a selection determination method according to the present invention.

【図3】 本発明に係る選択決定方法のうちインキング
処理を示すフローチャート
FIG. 3 is a flowchart showing an inking process in the selection determining method according to the present invention.

【図4】 第一従来例すなわちキーボードによる選択決
定方法を示す図
FIG. 4 is a diagram showing a first conventional example, that is, a method for determining selection by a keyboard.

【図5】 第二従来例すなわちマウスによる選択決定方
法を示す図
FIG. 5 is a diagram showing a second conventional example, that is, a method of determining selection by a mouse.

【符号の説明】 10 コンピユータ 11 位置/ステータス検出部 12 表示制御部 13 ジエスチヤー認識部 14 コマンド処理部 15 アプリケーシヨン処理部 16 印刷出力部 20 ポインテイングデバイス 21 タブレツト 22 表示部 23 プリンタ 24 カーソルバー 40 矢印キー 41 実行ボタン 42 マウス[Explanation of symbols] 10 Computer 11 Position / status detection unit 12 Display control unit 13 Gesture recognition unit 14 Command processing unit 15 Application processing unit 16 Print output unit 20 Pointing device 21 Tablet 22 Display unit 23 Printer 24 Cursor bar 40 Arrow Key 41 run button 42 mouse

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成6年1月12日[Submission date] January 12, 1994

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】全図[Correction target item name] All drawings

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図1】 [Figure 1]

【図2】 [Fig. 2]

【図3】 [Figure 3]

【図4】 [Figure 4]

【図5】 [Figure 5]

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 操作者が表示画面を確認しつつポインテ
イングデバイスを操作することにより位置情報とステー
タス情報とをコンピユータに入力し、それに基づいてコ
ンピユータが複数項目のうちの操作者の所望の項目を選
択及び決定するコンピユータの選択決定方法において、 前記表示画面上に前記複数項目を表示する項目表示領域
を各々設けるとともに該項目表示領域毎にそれに対応す
る前記ポインテイングデバイスの可動域にジエスチヤー
認識可能領域を設け、 前記ポインテイングデバイスからの位置情報の変化に従
い、該項目表示領域の表示状態を変化させ、 前記ポインテイングデバイスからのステータス情報がオ
ンで、かつ前記位置情報が前記ジエスチヤー認識可能領
域であるときに、 一連の位置情報及びステータス情報をストローク情報と
して取得し、 該ストローク情報についてジエスチヤー認識処理を実行
し、 該ジエスチヤー認識処理の結果により前記ジエスチヤー
認識可能領域に対応する項目を選択及び決定することを
特徴とする選択決定方法。
1. An operator inputs position information and status information into a computer by operating a pointing device while checking a display screen, and based on the input information, the computer selects an item desired by the operator among a plurality of items. In the selection and determination method of the computer for selecting and deciding, the item display area for displaying the plurality of items is provided on the display screen, and each item display area can be recognized in the movable range of the pointing device corresponding to it. An area is provided, and the display state of the item display area is changed according to the change of the position information from the pointing device, the status information from the pointing device is ON, and the position information is in the gesture recognizable area. At some point, a series of location and status information Chromatography obtained as click information, the on stroke information running Jiesuchiya recognition processing, selection determination method and selects and determines an item corresponding to the Jiesuchiya recognizable area as a result of the Jiesuchiya recognition process.
【請求項2】 請求項1記載の選択決定方法において、 前記ストローク情報取得の条件を、 前記ポインテイングデバイスからのステータス情報がオ
ンで、かつ前記位置情報が前記ジエスチヤー認識可能領
域であるのみならず、 それに加えて該位置情報の変化が所定値以上であること
としたことを特徴とする選択決定方法。
2. The selection determining method according to claim 1, wherein the condition for acquiring the stroke information is that not only the status information from the pointing device is ON and the position information is the gesture recognizable area. In addition to that, the selection determining method is characterized in that the change of the position information is not less than a predetermined value.
【請求項3】 請求項1又は2のいずれか記載の選択決
定方法において、 前記ジエスチヤー認識可能領域が細長い略矩形の形状を
有し、 前記ジエスチヤー認識処理の対象が該ジエスチヤー認識
可能領域の長手方向に伸びる線分であることを特徴とす
る選択決定方法。
3. The selection determination method according to claim 1, wherein the gesture recognizable area has an elongated rectangular shape, and the object of the gesture recognition processing is a longitudinal direction of the die recognizable area. A method for determining selection, which is a line segment extending to
【請求項4】 請求項1、2又は3のいずれか記載の選
択決定方法において、 前記ポインテイングデバイスがスタイラスペンであるこ
とを特徴とする選択決定方法。
4. The selection determining method according to claim 1, 2 or 3, wherein the pointing device is a stylus pen.
【請求項5】 請求項4記載の選択決定方法において、 前記スタイラスペンの位置検出面と前記表示画面とを積
層配置させ、 前記選択項目表示領域と前記ジエスチヤー認識可能領域
とを重ね合わせたことを特徴とする選択決定方法。
5. The selection determination method according to claim 4, wherein the position detection surface of the stylus pen and the display screen are arranged in a stack, and the selection item display area and the gesture recognizable area are overlapped with each other. Characteristic selection decision method.
JP27127693A 1993-10-04 1993-10-04 Selection determining method Pending JPH07104964A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27127693A JPH07104964A (en) 1993-10-04 1993-10-04 Selection determining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27127693A JPH07104964A (en) 1993-10-04 1993-10-04 Selection determining method

Publications (1)

Publication Number Publication Date
JPH07104964A true JPH07104964A (en) 1995-04-21

Family

ID=17497829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27127693A Pending JPH07104964A (en) 1993-10-04 1993-10-04 Selection determining method

Country Status (1)

Country Link
JP (1) JPH07104964A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903229A (en) * 1996-02-20 1999-05-11 Sharp Kabushiki Kaisha Jog dial emulation input device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903229A (en) * 1996-02-20 1999-05-11 Sharp Kabushiki Kaisha Jog dial emulation input device

Similar Documents

Publication Publication Date Title
US5157384A (en) Advanced user interface
US20190146667A1 (en) Information processing apparatus, and input control method and program of information processing apparatus
US6094197A (en) Graphical keyboard
EP0607926B1 (en) Information processing apparatus with a gesture editing function
US5252951A (en) Graphical user interface with gesture recognition in a multiapplication environment
JP4650699B2 (en) Input device, input method, and program
US5272470A (en) Apparatus and method for reducing system overhead while inking strokes in a finger or stylus-based input device of a data processing system
US9239673B2 (en) Gesturing with a multipoint sensing device
EP0557282B1 (en) Computer with tablet input to standard programs
EP0464712A2 (en) Display/input control system for software keyboard in information processing apparatus having integral display/input device
US20070052685A1 (en) Information processing apparatus and gui component display method for performing display operation on document data
WO2004010276A1 (en) Information display input device and information display input method, and information processing device
WO2011048840A1 (en) Input motion analysis method and information processing device
JP2009527041A (en) System and method for entering data into a computing system
KR20130113622A (en) Input device and method for inputting character
US20090184933A1 (en) Touch interpretive architecture and touch interpretive method by using multi-fingers gesture to trigger application program
WO2013100727A1 (en) Display apparatus and image representation method using the same
KR20100033214A (en) Automatic switching method of input-mode by input pattern
CN102841752B (en) The characters input method of a kind of human-computer interaction device and device
WO2014045414A1 (en) Character input device, character input method, and character input control program
JPH07104964A (en) Selection determining method
JPH10333817A (en) Computer system using electronic pen
JP3228584B2 (en) Mouse input method on touch panel
US11561649B2 (en) Operation judgment method for interactive touch system
JP2001154767A (en) Method, device for inputting data and data input program recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040706