JP2001027924A - Input device using display screen - Google Patents

Input device using display screen

Info

Publication number
JP2001027924A
JP2001027924A JP20092299A JP20092299A JP2001027924A JP 2001027924 A JP2001027924 A JP 2001027924A JP 20092299 A JP20092299 A JP 20092299A JP 20092299 A JP20092299 A JP 20092299A JP 2001027924 A JP2001027924 A JP 2001027924A
Authority
JP
Japan
Prior art keywords
input
objects
distance
display screen
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20092299A
Other languages
Japanese (ja)
Inventor
Hidekazu Matsuda
秀和 松田
Sadahiko Higami
貞彦 樋上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP20092299A priority Critical patent/JP2001027924A/en
Publication of JP2001027924A publication Critical patent/JP2001027924A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To give the input instruction of objects A and B with satisfactory operability. SOLUTION: Plural objects A and B are displayed on the display screen of a liquid crystal or cathode ray tube and an input means such as a mouse and a pen gives an input instruction. A distance operation means operates distances L1A and L1B between a position 311 which is input-instructed and the positions of the objects A and B. A counting means counts the numbers nA and nB of input operation times on the objects by the input means, changes the distances obtained by an operation to be short by using weighting coefficients k1 to k4 and sets them as the number of times, which are counted, become larger values. The distances L2A and L2B which are changed and set are level-discriminated. As the use frequency and the number of selection times on the objects become larger, the priority of the objects becomes higher and the input operation of the objects becomes easy.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ユーザとのインタ
フェースのために、入力手段であるたとえばマウスおよ
びペンに代表されるポインティングデバイスを用いて、
またはユーザの視線を検出する構成を用いて、座標値入
力をする情報処理装置に好適な入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pointing device such as a mouse and a pen, which is an input means, for an interface with a user.
Alternatively, the present invention relates to an input device suitable for an information processing device for inputting coordinate values using a configuration for detecting a user's line of sight.

【0002】[0002]

【従来の技術】近年、パーソナルコンピュータ、ワード
プロセッサ、電子手帳、ビデオカメラ、スチルカメラな
ど、コンピュータを内蔵する情報処理装置においては、
グラフィック表示画面上でポインティングデバイスを利
用して、ユーザから情報処理装置に必要な指示を与える
ポインティング入力装置が用いられている。グラフィッ
ク画面上には、各種ウインドウ、メニュー、バー、アイ
コン、文字列、スクリーンキーボード等の様々なオブジ
ェクトが表示される。ユーザはポインティングデバイス
を操作し、画面上のオブジェクトを選択すれば、情報処
理装置に必要な指示を与えることができる。オブジェク
トは、その機能の理解が容易なように工夫され、必要に
応じて適切なタイミングで表示されるので、ユーザにと
っては判りやすく、簡単な操作で情報処理装置に指示を
与えることができる。
2. Description of the Related Art In recent years, in information processing apparatuses having a built-in computer, such as personal computers, word processors, electronic organizers, video cameras, and still cameras,
2. Description of the Related Art A pointing input device that provides a user with necessary instructions to an information processing apparatus using a pointing device on a graphic display screen is used. Various objects such as various windows, menus, bars, icons, character strings, and screen keyboards are displayed on the graphic screen. When the user operates the pointing device and selects an object on the screen, a necessary instruction can be given to the information processing apparatus. The object is devised so that its function can be easily understood, and is displayed at an appropriate timing as needed, so that the user can easily understand and can give an instruction to the information processing apparatus by a simple operation.

【0003】図12は、従来技術のポインティング入力
を行う情報処理装置の構成を示すブロック図である。中
央処理装置101は、バスを介して、点入力部/点入力
制御部102、キー入力部103、表示部104、メモ
リ105、記憶装置部106と接続されている。
FIG. 12 is a block diagram showing the configuration of a conventional information processing apparatus for performing a pointing input. The central processing unit 101 is connected to a point input unit / point input control unit 102, a key input unit 103, a display unit 104, a memory 105, and a storage unit 106 via a bus.

【0004】点入力部/点入力制御部102の点入力部
としては、マウス、トラックボール、ペンとタブレット
との組合わせなど、各種のポインティングデバイスを使
用することができ、その制御を点入力制御部で行い、ポ
インティング座標等の情報を中央処理装置101に伝え
る。ユーザの入力操作は、キー入力部103によっても
行われる。入力情報の中には、点入力部/点入力制御部
102によってもキー入力部103によっても同様に入
力可能な種類もある。表示部104は、液晶表示装置
(LCD)や陰極線管(CRT)などによって実現さ
れ、ユーザが情報処理装置の操作を行ったり、情報処理
装置の動作を知るための情報を表示する。
As the point input unit of the point input unit / point input control unit 102, various pointing devices such as a mouse, a trackball, and a combination of a pen and a tablet can be used. And transmits information such as pointing coordinates to the central processing unit 101. The user's input operation is also performed by the key input unit 103. Some types of input information can be input by the point input unit / point input control unit 102 and the key input unit 103 as well. The display unit 104 is realized by a liquid crystal display (LCD), a cathode ray tube (CRT), or the like, and displays information for the user to operate the information processing device and to know the operation of the information processing device.

【0005】点入力部/点入力制御部102からのユー
ザの操作により指示される位置情報は、中央処理部10
1に読込まれ、その位置情報により、どのオブジェクト
が選択されたかを図13のフローチャートのように検索
する。入力操作された座標位置が、オブジェクト内にあ
れば、そのオブジェクトが選択されたと解釈し、オブジ
ェクト外であれば、カーソル位置である座標位置を中心
に等方的な範囲でオブジェクトの検索を行い、カーソル
位置に最も近い、オブジェクトを選択する。
[0005] Position information specified by a user operation from the point input unit / point input control unit 102 is transmitted to the central processing unit 10.
1 and retrieves which object is selected based on the position information as shown in the flowchart of FIG. If the coordinate position where the input operation is performed is within the object, the object is interpreted as being selected, and if the coordinate position is outside the object, an object is searched in an isotropic range around the coordinate position which is the cursor position, Select the object closest to the cursor position.

【0006】中央処理部101の動作を示す図13にお
いて、ステップa1からステップa2に移り、記憶装置
部106およびメモリ105から、表示部104に表示
されているオブジェクトの座標値を得る。ステップa2
では、点入力部/点入力制御部102から、点入力座標
値を得、検索座標に代入する。これによってステップa
4では、点入力部102によって入力された検索座標
と、表示部104に表示されているオブジェクトの座標
とが一致するかどうかが判断され、一致していなけれ
ば、次のステップa5に移る。ステップa5では、オブ
ジェクトの検索領域を設定し、ステップa6においてそ
のオブジェクトの検索回数を1にセットして計数を開始
する。ステップa7において検索回数が、予め定める最
大検索回数を超えているかを判断し、超えていれば、ス
テップa11において動作を終了する。検索回数が最大
検索回数以下であれば、ステップa7からステップa8
に移り、その検索回数に応じた検索順序の座標を、検索
座標に代入し、次のステップa9において検索座標とオ
ブジェクトとの座標が一致するかどうかを判断する。ス
テップa9において、検索座標とオブジェクトとの座標
が一致しなければ、次のステップa10で検索回数に1
を加えてインクリメントし、ステップa7に移る。
In FIG. 13 showing the operation of the central processing unit 101, the process proceeds from step a1 to step a2, and the coordinate values of the object displayed on the display unit 104 are obtained from the storage unit 106 and the memory 105. Step a2
Then, a point input coordinate value is obtained from the point input unit / point input control unit 102 and substituted into the search coordinates. This results in step a
At 4, it is determined whether or not the search coordinates input by the point input unit 102 match the coordinates of the object displayed on the display unit 104. If they do not match, the process proceeds to the next step a5. In step a5, a search area of the object is set, and in step a6, the number of times of search for the object is set to 1 and counting is started. In step a7, it is determined whether or not the number of searches exceeds a predetermined maximum number of searches. If it exceeds, the operation is terminated in step a11. If the number of searches is equal to or less than the maximum number of searches, step a7 to step a8
Then, the coordinates of the search order according to the number of searches are substituted for the search coordinates, and in the next step a9, it is determined whether or not the search coordinates match the coordinates of the object. In step a9, if the search coordinates and the coordinates of the object do not match, in the next step a10, the search frequency is set to 1
Is added, and the process proceeds to step a7.

【0007】ステップa4,a9において、検索座標と
オブジェクトの座標とが一致することが判断されると、
ステップa12では、カーソル位置にオブジェクトが存
在することを、中央処理部101が認識し、そのオブジ
ェクトに対応した動作を行う。こうしてステップa13
では一連の動作を終了する。
In steps a4 and a9, when it is determined that the search coordinates match the coordinates of the object,
In step a12, the central processing unit 101 recognizes that an object exists at the cursor position, and performs an operation corresponding to the object. Thus, step a13
Then, a series of operations ends.

【0008】図12および図13に示される先行技術で
は、カーソル位置を中心として等方的な範囲を設定し、
その範囲で、オブジェクトの検索を行い、カーソル位置
に最も近いオブジェクトを選択する。したがって複数種
類のオブジェクトのうち、使用頻度が高いオブジェクト
であるか、または使用頻度が低いオブジェクトであるか
にかかわらず、カーソルから最も近いオブジェクトが選
択されることになり、操作性が悪い。
In the prior art shown in FIGS. 12 and 13, an isotropic range is set around a cursor position,
The object is searched within that range, and the object closest to the cursor position is selected. Therefore, regardless of whether the object is a frequently used object or an infrequently used object, the object closest to the cursor is selected from among the plurality of types of objects, resulting in poor operability.

【0009】他の先行技術では、検索する範囲の形状を
等方的でなくし、複数の形状により検索し選択する構成
も利用されており、このような検索する範囲の形状を等
方的でなくし、複数の形状により検索し選択する構成を
有する先行技術も提案され、改善されてはいるが、ユー
ザの癖や使用頻度や目的に合ったものではないので、ユ
ーザが選択を間違った場合、取り消し操作等の煩わしい
操作が必要となる。
In another prior art, a configuration in which the shape of a search range is not isotropic, and a search and selection is performed using a plurality of shapes is also used, and such a shape of the search range is not made isotropic. Prior arts having a configuration of searching and selecting by a plurality of shapes have also been proposed and improved, but are not suitable for the user's habit, usage frequency and purpose, so if the user makes a wrong selection, A cumbersome operation such as an operation is required.

【0010】[0010]

【発明が解決しようとする課題】本発明の目的は、操作
性が向上されたポインティング入力を行うことができる
表示画面を用いる入力装置を提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to provide an input device using a display screen capable of performing a pointing input with improved operability.

【0011】[0011]

【課題を解決するための手段】本発明は、入力指示され
るべきオブジェクトを表示する表示画面を有する表示手
段と、表示画面の入力操作によってオブジェクトの入力
指示を行う入力手段と、入力手段の出力に応答し、表示
手段の表示画面内で、入力手段によって入力指示された
位置とオブジェクトの位置との間の距離L12,L13
を演算する距離演算手段と、オブジェクトの入力指示の
操作特性を設定する特性設定手段と、距離演算手段と特
性設定手段との出力に応答し、オブジェクトの入力指示
を、設定された前記特性に対応した前記距離に関連する
レベル弁別によって、行う入力制御手段とを含むことを
特徴とする表示画面を用いる入力装置である。
SUMMARY OF THE INVENTION The present invention provides a display means having a display screen for displaying an object to be input-designated, an input means for instructing input of an object by an input operation on the display screen, and an output of the input means. In the display screen of the display means, the distances L12, L13 between the position designated by the input means and the position of the object.
, A characteristic setting means for setting the operation characteristics of the input instruction of the object, and responding to the outputs of the distance calculation means and the characteristic setting means, and the input instruction of the object corresponds to the set characteristic. Input control means for performing level discrimination related to the distance.

【0012】本発明に従えば、液晶または陰極線管など
によって実現される表示手段の表示画面には、入力指示
されるべきオブジェクトが表示され、入力手段によっ
て、この表示されているオブジェクトの1つを入力指示
する。入力手段は、キーボードまたはマウスなどによっ
て表示画面に表示されるカーソルを移動して座標位置を
入力する構成であってもよく、またはユーザが操作する
ペンによって表示画面上の座標位置を入力する構成であ
ってもよく、またはユーザの頭部に装着されたユーザの
視線を検出し、その視線に対応した表示画面上の座標位
置を入力する構成であってもよく、さらにそのほかの構
成であってもよい。入力手段によって入力指示された表
示画面内の位置とオブジェクトの位置との間の距離を、
距離演算手段によって演算する。
According to the present invention, an object to be inputted is displayed on a display screen of a display means realized by a liquid crystal or a cathode ray tube, and one of the displayed objects is displayed by the input means. Specify input. The input means may be configured to input a coordinate position by moving a cursor displayed on the display screen by a keyboard or a mouse, or to input a coordinate position on the display screen by a pen operated by a user. Or a configuration in which a line of sight of a user mounted on the user's head is detected and a coordinate position on the display screen corresponding to the line of sight is input, or another configuration may be used. Good. The distance between the position on the display screen input by the input means and the position of the object,
It is calculated by the distance calculation means.

【0013】特性設定手段は、オブジェクトの入力指示
の操作特性を設定するものであって、たとえば、複数の
各ユーザ毎のオブジェクトの使用頻度、選択回数に依存
してオブジェクト位置の重み付けを行い、使用頻度、選
択回数が多い、換言すると重要度の高いオブジェクトを
優先的に選択する。すなわち重要度、優先度の高いオブ
ジェクトでは、その入力指示された位置とオブジェクト
のたとえば重心位置との間の距離を、1未満の係数k1
〜k4を掛算して重み付けして演算を行う。こうして前
記特性に対応した前記演算して得られた距離に関連する
レベル弁別によって、オブジェクトが入力指示されたか
否かを判断して入力制御を行う。本発明は上述のよう
に、距離演算手段によって演算された距離L1A,L1
Bに、特性設定手段によって設定された操作特性に対応
してその距離を縮小し、または伸長するように演算し、
入力制御手段において予め定める一定のレベルL3A,
L3Bでレベル弁別し、入力指示の有無を判断するよう
にしてもよいけれども、本発明はまた、入力制御手段に
おいてレベル弁別する弁別レベルL3A,L3Bを、特
性設定手段の操作特性に対応して変化するようにし、た
とえば典型的には使用頻度、選択回数が多いほど、弁別
レベルを大きい値に設定して重要度の高いオブジェクト
を優先的に選択するようにしてもよく、請求項1の本発
明は、このような構成を全て含む。
The characteristic setting means sets the operation characteristics of the input instruction of the object. For example, the characteristic setting means weights the object position depending on the frequency of use and the number of selections of the object for each of a plurality of users, and Objects with a high frequency and a large number of selections, in other words, objects with a high degree of importance are preferentially selected. That is, for an object having a high importance and a high priority, the distance between the position designated by the input and the position of the object, for example, the center of gravity, is set to a coefficient k1 smaller than 1.
Kk4 and weighted to perform the operation. In this way, input control is performed by determining whether or not an object has been instructed by level discrimination relating to the distance obtained by the calculation corresponding to the characteristic. As described above, according to the present invention, the distances L1A, L1
B, calculate to reduce or extend the distance in accordance with the operation characteristic set by the characteristic setting means,
A predetermined level L3A, predetermined in the input control means,
Although the level discrimination may be performed by L3B to determine the presence or absence of an input instruction, the present invention also changes the discrimination levels L3A and L3B for level discrimination in the input control means in accordance with the operation characteristics of the characteristic setting means. For example, typically, as the frequency of use and the number of selections increase, the discrimination level may be set to a larger value to preferentially select objects having higher importance. Includes all such configurations.

【0014】また本発明は、特性設定手段は、入力手段
によるオブジェクトの入力操作回数nA,nBを計数す
る計数手段と、計数手段の出力に応答し、計数された回
数が大きい値になる程、前記距離L12,L13を短く
変更して設定する距離設定手段とを含み、入力制御手段
は、距離設定手段によって変更設定された前記距離L2
2,L23が予め定める弁別レベルL3A,L3B以下
であるとき、入力指示を可能にし、前記弁別レベルを超
えるとき、入力指示を禁止することを特徴とする。
Further, according to the present invention, the characteristic setting means includes a counting means for counting the number of input operations nA and nB of the object by the input means, and in response to the output of the counting means, the larger the counted number becomes, the larger the value becomes. Distance setting means for setting the distances L12 and L13 by changing the distances L12 and L13 to be short, and the input control means sets the distance L2 changed and set by the distance setting means.
2, when L23 is equal to or less than a predetermined discrimination level L3A, L3B, an input instruction is enabled, and when it exceeds the discrimination level, the input instruction is prohibited.

【0015】本発明に従えば、特性設定手段に備えられ
ている計数手段は、1または複数の各オブジェクトの入
力操作回数nA,nBを計数し、すなわち各オブジェク
トの使用頻度、選択回数を計数し、その計数回数が大き
くなるほど、距離演算手段によって演算した距離を、短
くなるように重み付けして変更する。こうして計数回数
が大きくなるほど、オブジェクトと入力指示された位置
との距離が長くなっても、そのオブジェクトを入力操作
することができ、操作性が良好となる。本発明は、演算
して得られた距離L1A,L1Bを変更して設定する構
成だけでなく、演算して得られた距離L2A23,L2
B23をレベル弁別するしきい値である弁別レベルL3
A,L3Bを、計数された回数nA,nBが大きい値に
なるほど、大きく設定する構成もまた含む。
According to the present invention, the counting means provided in the characteristic setting means counts the number of input operations nA, nB of one or a plurality of objects, that is, counts the frequency of use and the number of selections of each object. The distance calculated by the distance calculating means is weighted and changed so as to be shorter as the number of times of counting becomes larger. Thus, as the number of times of counting increases, even if the distance between the object and the position where the input is instructed becomes longer, the object can be input-operated, and the operability is improved. The present invention is not limited to the configuration in which the distances L1A and L1B obtained by calculation are changed and set, but also the distances L2A23 and L2 obtained by calculation.
Discrimination level L3, which is a threshold for level discrimination of B23
A configuration in which A and L3B are set to be larger as the counted times nA and nB become larger values is also included.

【0016】また本発明は、特性設定手段は、複数の各
ユーザを指定するユーザ指定手段と、ユーザ指定手段の
出力に応答し、各ユーザに対応した前記距離の演算手法
を変化して設定する演算手法設定手段とを含み、入力制
御手段は、前記演算手法によって得られた距離をレベル
弁別することを特徴とする。
Further, according to the present invention, the characteristic setting means responds to an output of the user designating means for designating each of a plurality of users and changes and sets the distance calculation method corresponding to each user. And a calculation method setting means, wherein the input control means performs level discrimination of the distance obtained by the calculation method.

【0017】本発明に従えば、複数の各ユーザを、ユー
ザ指定手段によって指定し、これによって各ユーザに対
応した前記距離の演算手法、すなわち演算して得られた
距離の変更および弁別レベルの変更を演算手法設定手段
によって設定するようにしてもよい。このような演算手
法として、たとえば各ユーザ毎の各オブジェクトに対し
てポインティング作業時の癖に従い、演算して得られた
距離L1A,L1Bに重み付けを行い、また弁別レベル
を変更するなどして、各ユーザにとって操作性の良いポ
インティング入力を可能にすることができる。
According to the present invention, a plurality of users are designated by the user designating means, whereby the method of calculating the distance corresponding to each user, that is, the change of the distance obtained by calculation and the change of the discrimination level May be set by the calculation method setting means. As such a calculation method, for example, the distances L1A and L1B obtained by calculation are weighted according to the habits of the pointing operation for each object for each user, and the discrimination level is changed. Pointing input with good operability for the user can be made possible.

【0018】また本発明は、距離演算手段は、入力手段
によって入力指示された位置と、複数の各オブジェクト
の位置との間の各距離L1A,L1Bを演算し、特性設
定手段は、複数の各オブジェクトに優先順位を設定する
優先順位設定手段を含み、入力制御手段は、距離演算手
段と優先順位設定手段との出力に応答し、演算された各
距離を、優先順位に関連してレベル弁別することを特徴
とする。
Further, according to the present invention, the distance calculating means calculates the distances L1A, L1B between the position designated by the input means and the positions of the plurality of objects, and the characteristic setting means calculates the distances between the plurality of objects. The input control means includes priority setting means for setting the priority of the object, and the input control means responds to the outputs of the distance calculating means and the priority setting means to discriminate the calculated distances in relation to the priority. It is characterized by the following.

【0019】本発明に従えば、特性設定手段に備えられ
ている優先順位設定手段は、複数の各オブジェクトに優
先順位を設定し、演算して得られた各距離を、優先順位
に従って重み付けを行って、その重み付けが行われた距
離を入力制御手段によってレベル弁別する。また、この
優先順位に対応して弁別レベルを優先順位が高くなるほ
ど短く設定し、距離演算手段によって演算して得られた
距離を、優先順位に関連する弁別レベルでレベル弁別す
る。こうして入力手段によるオブジェクトの入力指示
が、容易になる。
According to the present invention, the priority setting means provided in the characteristic setting means sets the priority for each of the plurality of objects, and weights each distance obtained by the calculation according to the priority. Then, the weighted distance is subjected to level discrimination by the input control means. Further, the discrimination level is set shorter as the priority becomes higher in accordance with the priority, and the distance calculated by the distance calculator is discriminated at the discrimination level related to the priority. In this way, the input instruction of the object by the input means becomes easy.

【0020】また本発明は、各オブジェクトは、演算処
理の種類に対応しており、入力指示された演算処理を行
う演算処理手段が設けられ、優先順位設定手段は、予め
定める順序に従って、前記各演算処理が実行される確率
を設定する確率設定手段と、確率設定手段の出力に応答
し、オブジェクトの確率が高い程、優先順位を高く設定
することを特徴とする。
Further, according to the present invention, each object corresponds to a type of arithmetic processing, and arithmetic processing means for performing an input-instructed arithmetic processing is provided. A probability setting means for setting the probability of execution of the arithmetic processing, and a priority is set higher as the probability of the object is higher, in response to an output of the probability setting means.

【0021】本発明に従えば、表示画面上でカーソルな
どを移動してオブジェクトをポインティングして入力す
るにあたり、その表示画面上で、カーソルなどによる入
力指示の位置を基準として、オブジェクト位置との距離
を演算して求め、各オブジェクトに対する、たとえばア
プリケーションなどによる操作予測によって、オブジェ
クト位置の重み付けk2を行い、こうして重要度の高い
オブジェクトを優先的に選択することを可能にする。こ
うして各演算処理が実行される確率を設定することによ
って、たとえばアプリケーションなどを選択する操作の
順序の確率が高いオブジェクトが、優先的に入力指示し
やすくなる。こうして操作性が向上される。
According to the present invention, when a cursor or the like is moved on the display screen to point and input an object, the distance from the object position on the display screen is determined based on the position of the input instruction by the cursor or the like. Is calculated, and the object position is weighted k2 by operation prediction for each object by, for example, an application or the like, so that an object with high importance can be preferentially selected. By setting the probability that each operation process is executed in this way, for example, an object having a high probability of the order of the operation of selecting an application or the like can be easily input with priority. Thus, operability is improved.

【0022】また本発明は、各オブジェクトは、キャラ
クタに対応しており、前記優先順位設定手段は、入力指
示されたキャラクタをストアするメモリと、メモリにス
トアされたキャラクタと意味合いの関連性の大小に対応
して各オブジェクトに優先順位を設定する意味合い優先
順位設定手段とを含むことを特徴とする。
Further, according to the present invention, each object corresponds to a character, and the priority setting means includes a memory for storing the character designated by the input, and a magnitude of relevance of the meaning of the character stored in the memory. And a priority setting means for setting a priority for each object in correspondence with the above.

【0023】本発明に従えば、たとえば各オブジェクト
が文字、記号などのキャラクタの意味合いを持つ場合、
単語などの意味合いの繋がりとして、オブジェクト位置
の重み付けk3を行い、重要度の高いオブジェクトを優
先的に選択する。すなわちメモリには入力指示されたキ
ャラクタをストアし、その入力指示されたキャラクタと
意味合いの関連性の大小に応じて優先順位を設定し、た
とえばキャラクタと意味合いの関連性が大きいキャラク
タに対応するオブジェクトに対応する距離を長く、また
は弁別レベルを短く設定し、こうして意味合いの関連性
が大きいキャラクタに対応するオブジェクトの入力操作
を容易にする。
According to the present invention, for example, when each object has a character meaning such as a character or a symbol,
As the connection of the meanings of words and the like, weight k3 of the object position is performed, and an object with high importance is preferentially selected. That is, the input-instructed character is stored in the memory, and priorities are set in accordance with the magnitude of the relevance of the input-instructed character and the meaning thereof. The corresponding distance is set to be long or the discrimination level is set to be short, thus facilitating the input operation of the object corresponding to the character whose meaning is highly relevant.

【0024】また本発明は、特性設定手段は、複数の各
ユーザを指定するユーザ指定手段を有し、優先順位設定
手段は、ユーザ指定手段の出力に応答し、ユーザ毎に、
複数の各オブジェクトに優先順位を設定することを特徴
とする。
Further, according to the present invention, the characteristic setting means has a user designating means for designating each of a plurality of users, and the priority setting means responds to the output of the user designating means.
A priority is set for each of the plurality of objects.

【0025】本発明に従えば、特性設定手段におけるユ
ーザ指定手段によって複数の各ユーザを指定し、これに
よって各ユーザ毎に、複数の各オブジェクトに優先順位
を設定し、こうして設定された優先順位が大きいほど、
演算して得られた距離を短くするようにたとえば重み付
け係数k1〜k4を用いて重み付けし、または弁別レベ
ルを優先順位が大きいほど短く設定し、各ユーザ毎に使
用頻度、選択回数または各ユーザ毎の癖などに依存し
て、入力操作を容易に行うことができる。
According to the present invention, a plurality of users are designated by the user designating means in the characteristic setting means, whereby priorities are set for a plurality of objects for each user. The larger,
Weighting is performed using, for example, weighting coefficients k1 to k4 so as to shorten the distance obtained by the calculation, or the discrimination level is set shorter as the priority is higher, and the frequency of use, the number of selections, or the The input operation can be easily performed depending on the habit of the user.

【0026】また本発明は、オブジェクトの入力指示の
操作特性をクリアするクリア手段を含み、特性設定手段
は、クリア手段の出力に応答し、予め定める操作特性を
設定することを特徴とする。
Further, the present invention includes clear means for clearing the operation characteristics of the input instruction of the object, and the characteristic setting means sets a predetermined operation characteristic in response to the output of the clear means.

【0027】本発明に従えば、クリア手段によって操作
特性をクリアし、たとえばユーザ毎の操作特性をクリア
し、または全ユーザの操作特性をクリアし、予め定めた
操作特性に従って、演算した距離のレベル弁別を行うよ
うにすることができる。こうしてたとえば間違った重み
付けをクリアすることができるようになり、重要度の高
いオブジェクトを優先的に選択することを可能にするこ
とができる。
According to the present invention, the operation characteristics are cleared by the clearing means, for example, the operation characteristics of each user are cleared, or the operation characteristics of all users are cleared, and the level of the distance calculated in accordance with the predetermined operation characteristics. Discrimination can be performed. Thus, for example, incorrect weighting can be cleared, and it is possible to preferentially select objects with high importance.

【0028】また本発明は、特性設定手段によって設定
された操作特性を読出して転送する手段をさらに含むこ
とを特徴とする。
The present invention is further characterized by further comprising means for reading out and transferring the operation characteristics set by the characteristic setting means.

【0029】本発明に従えば、たとえば各ユーザ毎の重
み付け情報などの優先順位のような操作特性を、現在使
っているパーソナルコンピュータなどの情報処理装置以
外の他の情報処理装置に、転送手段によって転送し、こ
れによってユーザが利用する情報処理装置において、そ
のユーザに好適な操作特性を用いて、オブジェクトの入
力操作を行うことができる。こうして或る情報処理装置
の入力装置から、新たな情報処理装置の入力装置に、操
作環境を容易に移植することができる。したがって、た
とえばポインティングされたカーソルの入力指示位置と
オブジェクトとの位置を検索し、ユーザにとって操作性
が良好な入力装置が実現される。このように複数のユー
ザで、各ユーザ毎に重み付けを行うことによって、個々
のユーザにとって、操作性の良いポインティングデバイ
ス入力装置が実現される。また急に入力装置を換えるこ
とになっても、今までの使用頻度、ユーザの癖などの操
作特性の情報を移し換えることによって、それまでの操
作性を新たな入力装置に移植し、各ユーザにとって操作
性の良い入力操作を行うことができるようになる。
According to the present invention, operation characteristics such as priorities such as weighting information for each user are transferred to another information processing apparatus other than the information processing apparatus such as a personal computer currently in use by the transfer means. Then, the input operation of the object can be performed using the operation characteristics suitable for the user in the information processing apparatus used by the user. Thus, the operation environment can be easily ported from an input device of a certain information processing device to an input device of a new information processing device. Therefore, for example, an input device with good operability for a user is realized by searching for an input instruction position of a pointed cursor and a position of an object. In this way, by performing weighting for each user by a plurality of users, a pointing device input device with good operability for each user is realized. Even if the input device is suddenly changed, by transferring the information on the operation characteristics such as the frequency of use and the user's habit so far, the operability up to that time is transferred to the new input device, and each user can be changed. Can perform an input operation with good operability.

【0030】[0030]

【発明の実施の形態】図1は、本発明の実施の一形態の
表示画面を用いる入力装置310の全体の構成を示すブ
ロック図である。マイクロコンピュータなどによって実
現される中央処理部301は、情報処理装置の必要な各
種演算処理を実行する。この中央処理部301は、バス
を介して点入力部302aおよび点入力処理部302
b、キー入力部303、表示部304、メモリ305、
記憶装置部306および入力/出力インタフェース部3
07とに接続される。点入力部302aは、マウス、ト
ラックボール、ペンとタブレットとの組合わせなど、各
種のポインティングデバイスによって実現することがで
きる。点入力部302aの出力は、点入力制御部302
bに与えられ、これによってポインティング入力された
座標位置302cが、中央処理部301に与えられる。
点入力部302aの入力が可能であるとともに、キーボ
ードなどのキー入力部303によってもまた、入力操作
が行われる。入力情報は、点入力部302a、点入力制
御部302bだけでなく、キー入力部303によっても
入力可能な情報が存在する。
FIG. 1 is a block diagram showing the overall configuration of an input device 310 using a display screen according to an embodiment of the present invention. A central processing unit 301 realized by a microcomputer or the like executes various arithmetic processes required for the information processing device. The central processing unit 301 includes a point input unit 302a and a point input processing unit 302 via a bus.
b, key input unit 303, display unit 304, memory 305,
Storage unit 306 and input / output interface unit 3
07. The point input unit 302a can be realized by various pointing devices such as a mouse, a trackball, and a combination of a pen and a tablet. The output of the point input unit 302a is
b, whereby the coordinate position 302c input by pointing is provided to the central processing unit 301.
While the point input unit 302a can be input, an input operation is also performed by a key input unit 303 such as a keyboard. The input information includes information that can be input not only by the point input unit 302a and the point input control unit 302b but also by the key input unit 303.

【0031】表示部304は、液晶表示装置(LCD)
および陰極線管(CRT)などによって実現される。表
示部304は、その表示画面を用いて入力操作を行うこ
とによって情報処理装置の操作を行い、また入力装置の
動作を知るための情報が表示される。この表示画面に
は、入力操作のためのオブジェクトが表示される。オブ
ジェクトは、各種ウィンドウ、メニュー、バー、アイコ
ン、文字列、スクリーンキーボード等であってもよい。
入力/出力インタフェース部307は、各ユーザ毎の格
納情報のやりとりを行うためのものである。この入力/
出力インタフェース部307は、本件入力装置310
を、マイクロコンピュータなどを備えた情報処理装置本
体に接続して、信号の授受を行う働きをする。点入力部
302aおよび点入力制御部302bは、ユーザの操作
によって入力指示される位置である座標位置302c
を、中央処理部301に与え、その入力位置情報によっ
て、どのオブジェクトが選択されたかが、中央処理部3
02の動作によって検索されて入力の検出が行われる。
The display unit 304 is a liquid crystal display (LCD)
And a cathode ray tube (CRT). The display unit 304 operates the information processing device by performing an input operation using the display screen, and displays information for knowing the operation of the input device. On this display screen, objects for input operation are displayed. The object may be various windows, menus, bars, icons, character strings, screen keyboards, and the like.
The input / output interface unit 307 is for exchanging stored information for each user. This input /
The output interface unit 307 includes the subject input device 310
Is connected to an information processing apparatus main body equipped with a microcomputer or the like, and serves to exchange signals. A point input unit 302a and a point input control unit 302b are coordinate positions 302c which are positions designated by a user operation.
Is given to the central processing unit 301, and based on the input position information, which object is selected is determined by the central processing unit 3
02, the input is detected by being searched.

【0032】図2は、表示部304の表示画面を示す図
である。この表示部304には、参照符501で示され
るオブジェクトAと、参照符502で示されるオブジェ
クトBとが表示されている。各オブジェクトA,Bは、
矩形であってもよい。点入力部302aで入力指示され
るカーソル311の検索座標は、たとえば(320,3
00)で示される。カーソル311の入力指示位置を基
準として、オブジェクトA,Bの位置との距離L1A,
L2A;L1B,L2Bを検索し、各ユーザ毎の各オブ
ジェクトA,Bの使用頻度、選択回数によって、オブジ
ェクト位置の重み付けを行い、重要度の高いオブジェク
トAまたはBを優先的に選択することができる。このた
めに表示部304の表示画面に表示されているオブジェ
クトA,Bの重心GA,GBの座標を、記憶装置部30
6に予め登録しておき、この記憶装置部306に登録さ
れている各オブジェクトA,Bの座標を、メモリ305
に転送する。
FIG. 2 is a diagram showing a display screen of the display unit 304. The display unit 304 displays an object A indicated by a reference numeral 501 and an object B indicated by a reference numeral 502. Each object A, B is
It may be rectangular. The search coordinates of the cursor 311 input and instructed by the point input unit 302a are, for example, (320, 3).
00). The distances L1A, L1A,
L2A; L1B, L2B are searched, the object position is weighted according to the frequency of use and the number of selections of each object A, B for each user, and the object A or B with high importance can be preferentially selected. . For this purpose, the coordinates of the centers of gravity GA and GB of the objects A and B displayed on the display screen of the display unit 304 are stored in the storage unit 30.
6, the coordinates of the objects A and B registered in the storage unit 306 are stored in the memory 305.
Transfer to

【0033】図3は、中央処理部301の動作を説明す
るためのフローチャートである。ステップb1からステ
ップb2に移り、各オブジェクトA,Bの座標値、すな
わちその重心GA,GB、ならびに外周のたとえば4つ
の角隅部の座標などを、記憶装置部306から読出し
て、メモリ305のメモリ領域305aに、転送する。
ステップb3では、ユーザが各種ポインティングデバイ
スである点入力部302aから入力した入力指示座標
を、点入力制御部302bによって、あるいはまたキー
入力部303によって点入力した座標値を、検索座標値
として得る。
FIG. 3 is a flowchart for explaining the operation of the central processing unit 301. From step b1 to step b2, the coordinate values of the objects A and B, that is, their centers of gravity GA and GB, and the coordinates of, for example, four corners of the outer periphery are read out from the storage unit 306 and stored in the memory 305. The data is transferred to the area 305a.
In step b3, the input instruction coordinates input by the user from the point input unit 302a, which is various pointing devices, and the coordinate values input by the point input control unit 302b or the key input unit 303 are obtained as search coordinate values.

【0034】こうして得られた検索座標値から、検索座
標値とオブジェクトAまたはBの距離(総括的にL1
A,L1Bで示す)を演算して求める。この距離を演算
する第1の手法αは、カーソル311と各オブジェクト
A,Bとの最短距離の計算にあたり、そのカーソル31
1の検索座標値と、各オブジェクトA,Bの中心である
重心GA,GB、すなわち図心を結んだ直線L1A,L
1Bを求める。第2の手法βは、カーソル311の検索
座標とオブジェクトA,Bの重心GA,GBとを結ぶ直
線が各オブジェクトA,Bの外周の線と交点312,3
13との距離を演算する。第3の手法γは、カーソル3
11の検索座標値とオブジェクトA,Bの外周部との最
短距離を演算し、たとえば図2の実施の形態では、オブ
ジェクトA,Bの外周部の角隅部314,315との距
離を演算する。オブジェクトAの重心GAの座標(15
0,130)とし、オブジェクトBの重心GBの座標
(440,180)とするとき、上述の第1〜第3の手
法α,β,γによる距離は、次の表1のとおりとなる。
From the search coordinate values thus obtained, the distance between the search coordinate value and the object A or B (collectively, L1
A, L1B). The first method α for calculating this distance is to calculate the shortest distance between the cursor 311 and each of the objects A and B.
1 and the centers of gravity GA and GB, which are the centers of the objects A and B, that is, the straight lines L1A and L connecting the centroids.
Find 1B. In the second method β, a straight line connecting the search coordinates of the cursor 311 and the centers of gravity GA and GB of the objects A and B intersects the lines 312 and 3
13 is calculated. The third method γ is the cursor 3
The shortest distance between the search coordinate value 11 and the outer periphery of the objects A and B is calculated. For example, in the embodiment of FIG. 2, the distance between the outer corners 314 and 315 of the objects A and B is calculated. . The coordinates of the center of gravity GA of object A (15
0, 130) and the coordinates (440, 180) of the center of gravity GB of the object B, the distances by the above-described first to third methods α, β, γ are as shown in Table 1 below.

【0035】[0035]

【表1】 [Table 1]

【0036】こうして図3のステップb4では、カーソ
ル311の検索座標とオブジェクトA,Bとの間の各手
法α,β,γ毎の総括的に参照符L11〜L13で示す
距離を演算して求める。すなわちカーソル311の検索
座標(320,300)であるとき、オブジェクトAの
角隅部座標(50,100)と角隅部314の座標(2
50,160)を対角とする長方形または矩形のオブジ
ェクトAにおいて、第1〜第3の手法α,β,γで距離
を前述の表1のように求める。また同様にしてオブジェ
クトBに関して角隅部318の座標(340,100)
と角隅部316の座標(540,260)を対角とする
長方形のオブジェクトBにおいて、距離を第1〜第3の
手法α,β,γで表1のように求める。
In this way, in step b4 of FIG. 3, the distance between the search coordinates of the cursor 311 and the objects A and B for each of the methods α, β and γ is generally calculated and indicated by reference numerals L11 to L13. . That is, when the search coordinates (320, 300) of the cursor 311 are present, the corner coordinates (50, 100) of the object A and the coordinates (2,
50, 160), the distance is obtained as shown in Table 1 above by using the first to third methods α, β, and γ in the rectangular object A having the diagonal of 50 or 160). Similarly, coordinates (340, 100) of corner 318 with respect to object B
And the rectangular object B having the coordinates (540, 260) of the corner 316 as the diagonal, the distance is obtained as shown in Table 1 by the first to third methods α, β, γ.

【0037】ステップb5では、オブジェクトAについ
て使用頻度すなわち選択回数nAがメモリ305の検索
結果格納部305cにおいて計数し、その選択回数nA
が、表示部304の表示画面に表示されており、重み付
け係数k1Aを演算してメモリ305にストアして決定
する。ステップb6では、この係数k1Aは、これまで
の選択回数によって決定される。同様にして、オブジェ
クトBの選択回数nBを計数するとともに、重み付け係
数k1Bを演算して決定する。
In step b5, the frequency of use, ie, the number of selections nA, of the object A is counted in the search result storage unit 305c of the memory 305, and the number of selections nA is calculated.
Are displayed on the display screen of the display unit 304, and the weighting coefficient k1A is calculated, stored in the memory 305, and determined. In step b6, the coefficient k1A is determined by the number of selections so far. Similarly, the number of selections nB of the object B is counted, and the weighting coefficient k1B is calculated and determined.

【0038】図4は、オブジェクトA,Bの選択回数n
A,nBと、重み付け係数k1A,k1Bとの関係を示
す図である。選択回数が大きくなるにつれて、係数が小
さく設定される。カーソル311とオブジェクトA,B
の前述の第1〜第3のいずれかの手法α,β,γで演算
して得られた距離L1A,L1Bは、重み付け係数k1
A,k1B(総括的にk1で示すことがある)によって
重み付けられた距離L2A,L2Bとして、ステップb
6で得られる。 L2A = k1A・L1A …(1) L2B = k2B・L1B …(2)
FIG. 4 shows the number of selections n of the objects A and B.
FIG. 6 is a diagram illustrating a relationship between A and nB and weighting coefficients k1A and k1B. As the number of selections increases, the coefficient is set smaller. Cursor 311 and objects A and B
The distances L1A and L1B obtained by calculation using any one of the above-described first to third methods α, β, and γ
A, k1B (may be collectively denoted by k1) as distances L2A, L2B weighted by step b
6 obtained. L2A = k1A · L1A (1) L2B = k2B · L1B (2)

【0039】たとえばオブジェクトAをnA=7回選択
し、オブジェクトBをnB=3回選択していた場合、オ
ブジェクトAの重み付け係数k1A、およびオブジェク
トBの重み付け係数k1Bは、次のとおりとなる。 k1A = nB/(nA+nB) = (10−7)/10 = 0.3 …(3) k1B = nA/(nA+nB) = (10−3)/10 = 0.7 …(4)
For example, when the object A is selected nA = 7 times and the object B is selected nB = 3 times, the weighting coefficient k1A of the object A and the weighting coefficient k1B of the object B are as follows. k1A = nB / (nA + nB) = (10-7) /10=0.3 (3) k1B = nA / (nA + nB) = (10-3) /10=0.7 (4)

【0040】こうして得られた重み付け係数k1A,k
1Bと、オブジェクトA,Bの第1〜第3手法α,β,
γで求めた距離L1A,L1Bとによって、中央演算処
理部301で研磨、すなわち演算を行い、表2の結果を
得る。
The weighting coefficients k1A, k thus obtained
1B and the first to third methods α, β,
Based on the distances L1A and L1B determined by γ, the central processing unit 301 performs polishing, that is, calculation, and obtains the results shown in Table 2.

【0041】[0041]

【表2】 [Table 2]

【0042】この研磨の手法を述べる。オブジェクトA
の第1手法αで研磨した距離L2A1は、オブジェクト
Aの重み付け係数k1Aと第1手法αで演算した距離L
1A1によって行い、その結果、L2A1=51√2と
なる。同様に研磨手法で、オブジェクトAの第2手法β
で研磨した距離L2A2,オブジェクトAの第3手法γ
で研磨した距離L2A3を得る。一般的に述べると、次
式のとおりとなる。 L2A = k1A・L1A …(5)
The polishing method will be described. Object A
The distance L2A1 polished by the first method α is the weighting coefficient k1A of the object A and the distance L calculated by the first method α.
1A1, and as a result, L2A1 = 5112. Similarly, in the polishing method, the second method β of the object A is used.
Distance L2A2, the third method γ of object A
To obtain the polished distance L2A3. Generally speaking, it is as follows. L2A = k1A · L1A (5)

【0043】また同様の研磨手法で研磨したオブジェク
トBの第1手法αで研磨した距離L2B1=84√2と
なり、オブジェクトBの第2手法βで研磨した距離L2
B2=28√2となり、オブジェクトBの第3手法γで
研磨した距離L2B3=14√5となる。オブジェクト
Bについて、一般的に述べると、次式のとおりとなる。 L2B = k1B・L1B …(6)
Further, the distance L2B1 of the object B polished by the first method α polished by the same polishing method is 84√2, and the distance L2 polished by the second method β of the object B is obtained.
B2 = 28√2, and the distance L2B3 = 14√5 of the object B polished by the third method γ. The object B is generally described as follows. L2B = k1B · L1B (6)

【0044】第2手法βで研磨した距離(以後、研磨距
離L22)または第3手法γで研磨した距離(以後、研
磨距離L23)によって、ステップb7では、どちらの
オブジェクトA,Bがカーソル311と近い最短距離に
あるかが決定される。
According to the distance polished by the second method β (hereinafter, polished distance L22) or the distance polished by the third method γ (hereinafter, polished distance L23), in step b7, which of the objects A and B is the cursor 311 It is determined whether the shortest distance is close.

【0045】研磨距離の演算によって、オブジェクト
A,Bの研磨距離L22,L23を比較し、オブジェク
トBの第2手法βによる研磨距離L2B2とオブジェク
トBの第3手法γによる研磨距離L2B3の両者が研磨
距離L2A2,L2A3よりも短い値であるので(L2
A2>L2B2,L2A3>L2B3)、最短距離オブ
ジェクトがオブジェクトBであるものと、ステップb7
において決定される。本発明の実施の他の形態では、各
オブジェクトA,Bの第2および第3手法β,γの研磨
距離L22,L23のうち、最も短い方(この実施の形
態では、たとえばL2B3)が選択され、この結果、オ
ブジェクトBが決定される。この選択手法は、研磨距離
L22の各オブジェクトA,Bの最短距離を選択する
か、または研磨距離L23の各オブジェクトA,Bの最
短距離を選択するかを、アプリケーションプログラムな
どによって予め設定することができる。
By calculating the polishing distance, the polishing distances L22 and L23 of the objects A and B are compared, and both the polishing distance L2B2 of the object B by the second method β and the polishing distance L2B3 of the object B by the third method γ are polished. Since the value is shorter than the distances L2A2 and L2A3 (L2
A2> L2B2, L2A3> L2B3), the shortest distance object is the object B, and the step b7
Is determined. In another embodiment of the present invention, the shortest one (for example, L2B3 in this embodiment) is selected from the polishing distances L22 and L23 of the second and third methods β and γ of the objects A and B. As a result, the object B is determined. In this selection method, whether the shortest distance between the objects A and B of the polishing distance L22 or the shortest distance between the objects A and B of the polishing distance L23 is selected in advance by an application program or the like. it can.

【0046】最短距離オブジェクトに決定したオブジェ
クトBに関して、第1手法αで研磨した距離L2B1
と、オブジェクトBに設定している検索距離L3Bと
を、ステップb8において比較する。オブジェクトAに
関する検索距離をL3Aで表し、これらの検索距離L3
A,L3Bは次式によって得られる。 L3A = L1A1−L1A2 …(7) L3B = L1B1−L1B2 …(8) こうして検索距離L3A,L3Bは、各オブジェクト
A,Bの(L11−L12)で求められる。
With respect to the object B determined as the shortest distance object, the distance L2B1 polished by the first method α
Is compared with the search distance L3B set for the object B in step b8. The search distance for the object A is represented by L3A, and these search distances L3A
A and L3B are obtained by the following equations. L3A = L1A1-L1A2 (7) L3B = L1B1-L1B2 (8) Thus, the search distances L3A and L3B are obtained by (L11-L12) of the objects A and B.

【0047】最短距離オブジェクトに決定したオブジェ
クトAまたはBに関して、その最短距離L21と、検索
距離L3A,L3Bとを上述のように比較し、差ΔL
A,ΔLBを演算して求める。 ΔLA = L2A1−L3A …(9) ΔLB = L2B1−L3B …(10)
For the object A or B determined as the shortest distance object, the shortest distance L21 and the search distances L3A and L3B are compared as described above, and the difference ΔL
A and ΔLB are calculated and obtained. ΔLA = L2A1-L3A (9) ΔLB = L2B1-L3B (10)

【0048】検索距離L3A,L3Bが負の場合、カー
ソル311の検索座標がオブジェクトA,B内にあると
判断する。L3A,L3Bが正の場合、次の手法によっ
て判断される。すなわちΔLA≦0またはΔLB≦0で
あれば、カーソル311の検索座標は、オブジェクトA
またはB内にあると判断することができる。ΔLA>0
またはΔLB>0であれば、検索座標はオブジェクトA
またはBの外であるものと判断する。上述の実施の形態
において、最短距離オブジェクトBに関して、検索距離
L3B=80√2であり、差ΔLB=(84√2−80
√2)>0であるので、カーソル311の検索座標は、
オブジェクトB外にあると判断する。ステップb8から
ステップb12に移る。
When the search distances L3A and L3B are negative, it is determined that the search coordinates of the cursor 311 are within the objects A and B. When L3A and L3B are positive, it is determined by the following method. That is, if ΔLA ≦ 0 or ΔLB ≦ 0, the search coordinates of the cursor 311 are the object A
Or it can be determined that it is within B. ΔLA> 0
Or, if ΔLB> 0, the search coordinates are the object A
Or, it is determined that it is out of B. In the above-described embodiment, for the shortest distance object B, the search distance L3B = 80 = 2, and the difference ΔLB = (84√2-80)
√2)> 0, the search coordinates of the cursor 311 are
It is determined that the object is outside the object B. The process moves from step b8 to step b12.

【0049】カーソル311の検索座標がオブジェクト
内にあると判断された場合、ステップb8からステップ
b9に移り、そのオブジェクトAまたはBに対してオブ
ジェクトA,Bの選択回数nAまたはnBに1を加算し
てインクリメントする。この選択回数は、各オブジェク
トAまたはBの使用頻度として用いられ、1ずつ上述の
ようにインクリメントされて再計算され、記憶装置部3
06に格納される。中央処理部301は、オブジェクト
AまたはBが選択されたことを認識することが、ステッ
プb10において行われる。カーソル311の検索座標
がオブジェクトAまたはBの外であるものと判断された
とき、図3のステップb12に移り、一連の動作を終了
する。前述の検索距離L3A,L3Bは、カーソル31
1の検索座標がオブジェクトAまたはBの内外にあるか
どうかをレベル弁別するためのしきい値である弁別レベ
ルとして用いられている。
When it is determined that the search coordinates of the cursor 311 are within the object, the process proceeds from step b8 to step b9, and 1 is added to the number of selections nA or nB of the object A or B for the object A or B. To increment. The number of selections is used as the frequency of use of each object A or B, and is incremented by one as described above, recalculated, and
06. In step b10, the central processing unit 301 recognizes that the object A or B has been selected. When it is determined that the search coordinates of the cursor 311 are outside the object A or B, the process proceeds to step b12 in FIG. 3, and a series of operations ends. The above-described search distances L3A and L3B are indicated by the cursor 31.
It is used as a discrimination level, which is a threshold for discriminating whether or not the one search coordinate is inside or outside the object A or B.

【0050】図5は、本発明の実施の他の形態における
中央処理部301の動作を説明するためのフローチャー
トである。この実施の形態は、前述の実施の形態に類似
する。複数の各ユーザ毎の各オブジェクトA,Bに対し
て、点入力部302aを用いるユーザのポインティング
作業時の癖などのユーザ指定の情報によって、オブジェ
クトA,Bの位置の重み付けを行う。ステップc1〜c
3は、前述の図3におけるステップb1〜b3と同様で
ある。表示部304に表示されているオブジェクトA,
Bの座標を、記憶装置部306から得る。ユーザが各種
のポインティングデバイスである点入力部302aで入
力した座標によって点入力制御部302bから、または
キー入力部303の入力操作によって、検索座標値を得
る。メモリ305の特性設定手段を構成する検索位置重
み付け設定格納部の働きをするとともに、カーソル基準
位置をストアするメモリ領域305aにおけるメモリ領
域305bには、ユーザ指定情報がストアされる。
FIG. 5 is a flowchart for explaining the operation of the central processing unit 301 in another embodiment of the present invention. This embodiment is similar to the previous embodiment. For each of the plurality of objects A and B for each user, the position of the objects A and B is weighted by user-specified information such as the habit of the user using the point input unit 302a at the time of pointing work. Steps c1 to c
Step 3 is the same as steps b1 to b3 in FIG. The object A displayed on the display unit 304,
The coordinates of B are obtained from the storage unit 306. A search coordinate value is obtained from the point input control unit 302b based on coordinates input by the user using the point input unit 302a, which is various pointing devices, or by an input operation of the key input unit 303. In addition to serving as a search position weighting setting storage unit that constitutes a characteristic setting unit of the memory 305, user designation information is stored in a memory area 305b in a memory area 305a that stores a cursor reference position.

【0051】図6は、図5の実施の形態におけるメモリ
領域305bのストア内容を示す図である。このメモリ
領域305bには、複数の各ユーザu1,u2,…(総
括的に参照符uで示す)毎に演算手法が設定されてスト
アされる。或る1人のユーザu1は、点入力部302a
またはキー入力部303によって指定され、これによっ
て各ユーザu毎の演算手法が採用される。たとえば指定
されたユーザがオブジェクトA,Bの右端をポインティ
ングする癖を有しており、したがってオブジェクトA,
Bの座標を記憶装置部306からメモリ305に転送さ
れたユーザ指定情報には、オブジェクトA,Bの右端の
座標を、オブジェクトの中央の重心GA,GB座標の代
りに換算するオブジェクト位置の重み付けが設定されて
いる。このとき全オブジェクトA,Bの外周部の右端3
14,316(図2参照)が、各オブジェクトA,Bの
重心GA,GBの中央座標の代りに用いられる。これに
よって各オブジェクトA,Bの距離L1A1,L1B1
が演算して求められる。
FIG. 6 is a diagram showing the contents stored in the memory area 305b in the embodiment of FIG. In this memory area 305b, a calculation method is set and stored for each of a plurality of users u1, u2,... (Generally indicated by reference numeral u). One user u1 enters the point input unit 302a
Alternatively, it is designated by the key input unit 303, whereby a calculation method for each user u is adopted. For example, the designated user has a habit of pointing the right ends of the objects A and B, and thus the objects A and B
The user-specified information transferred from the storage unit 306 to the memory 305 with the coordinates of B includes the weight of the object position for converting the coordinates of the right ends of the objects A and B into the center of gravity GA and GB coordinates of the object. Is set. At this time, the right end 3 of the outer peripheral portion of all the objects A and B
14 and 316 (see FIG. 2) are used instead of the center coordinates of the centers of gravity GA and GB of the objects A and B. As a result, the distances L1A1, L1B1 between the objects A, B
Is calculated.

【0052】このようにメモリ領域305bにユーザ指
定情報が登録されていることが、ステップc4において
判断され、これによってステップc6では、指定された
ユーザu毎の演算手法によって距離が演算される。ステ
ップc4において指定されたユーザの情報がメモリ領域
305bにストアされていない場合、オブジェクトA,
Bの位置の重み付けが行われず、そのままのオブジェク
ト座標が用いられて、すなわち各オブジェクトA,Bの
重心位置を用いて距離L11などが演算されることにな
る。ステップc5は、前述の図3のステップb4に対応
し、ステップc7〜c12は、図3のステップb7〜b
12に対応する。
It is determined in step c4 that the user designation information is registered in the memory area 305b in this manner, and in step c6, the distance is computed by the computation method for each designated user u. If the information of the user specified in step c4 is not stored in the memory area 305b, the object A,
Weighting of the position of B is not performed, and the object coordinates are used as they are, that is, the distance L11 and the like are calculated using the positions of the centers of gravity of the objects A and B. Step c5 corresponds to step b4 in FIG. 3 described above, and steps c7 to c12 correspond to steps b7 to b in FIG.
Corresponding to 12.

【0053】図7は、本発明の実施の他の形態における
中央処理部301の動作を説明するためのフローチャー
トである。この実施の形態は、前述の実施の形態に類似
する。特にこの実施の形態では、各オブジェクトA,B
に対応して、中央処理部301が演算処理を行うアプリ
ケーションプログラムの実行による操作予測によって、
オブジェクトA,Bの位置の重み付けが行われる。メモ
リ305のメモリ領域305bには、記憶部306から
メモリ305に転送された操作予測データによって、各
オブジェクトA,Bの距離の重み付け係数k2A,k2
B(総括的にk2で示すことがある)が前述の重み付け
係数k1に代えて設定される。
FIG. 7 is a flowchart for explaining the operation of the central processing unit 301 in another embodiment of the present invention. This embodiment is similar to the previous embodiment. In particular, in this embodiment, each object A, B
In response to the above, the central processing unit 301 performs an operation prediction by executing an application program that performs arithmetic processing,
The positions of the objects A and B are weighted. In the memory area 305b of the memory 305, the weighting coefficients k2A and k2 for the distances of the objects A and B are stored in accordance with the operation prediction data transferred from the storage unit 306 to the memory 305.
B (generally indicated by k2) is set instead of the above-mentioned weighting coefficient k1.

【0054】図8は、図7に示される実施の形態におけ
るメモリ領域305bのストア内容を説明する図であ
る。各オブジェクトA,B毎の重み付け係数k1A,k
1Bは、各オブジェクトA,Bに対応するアプリケーシ
ョンプログラムの実行に従う点入力部302aの操作予
測に従い、次に選択されるであろうオブジェクトA,B
の確率を予め推定して設定した値に定められる。たとえ
ばアプリケーションプログラムが文書作成ツールである
場合、「ファイルを開く」というオブジェクトの選択
と、「新規文書ファイルの作成」というオブジェクトの
選択とが想定され、「ファイルを開く」というオブジェ
クトの選択確率ρ1Aが70%であり、「新規文書ファ
イルの作成」のオブジェクトの選択確率ρ1Bが30%
であると想定されるとき、「ファイルを開く」というオ
ブジェクトAの重み付け係数k2A=1−ρ1A=1−
0.7=0.3であり、「新規文書ファイルの作成」と
いうオブジェクトBの重み付け係数k2B=1−ρ1B
=1−0.3=0.7と決定される。このような重み付
け係数k2A,k2Bの決定は、図7のステップd5に
おいて実行される。
FIG. 8 is a view for explaining the contents stored in the memory area 305b in the embodiment shown in FIG. Weighting coefficient k1A, k for each object A, B
1B follows the operation prediction of the point input unit 302a according to the execution of the application program corresponding to each of the objects A and B, and the objects A and B that will be selected next.
Is set to a value which is estimated and set in advance. For example, if the application program is a document creation tool, it is assumed that an object “open file” is selected and an object “create new document file” is selected, and the object selection probability ρ1A of “open file” is 70%, and the object selection probability ρ1B of “create new document file” is 30%
Is assumed, the weight coefficient k2A = 1−ρ1A = 1−1 of the object A “open file”
0.7 = 0.3, and the weighting coefficient k2B = 1−ρ1B of the object B “Create new document file”
= 1−0.3 = 0.7. The determination of the weighting coefficients k2A and k2B is performed in step d5 of FIG.

【0055】図7のステップd1〜d4は、前述の実施
の形態における図3のステップb1〜b4と同様であ
る。さらに図7のステップd6〜d12は、図3のステ
ップb6〜b12と同様である。この実施の形態では、
各オブジェクトA,Bが文字および記号などのキャラク
タの意味合いを持つものであって、単語の意味などによ
って、オブジェクトA,Bに重み付けを行う。ユーザは
点入力部302aまたはキー入力部303の入力操作に
よって文字を入力する場合、その文字の意味に従い、た
とえばユーザがすでに入力した文字列「ポイン」である
とき、次に入力される文字は、文字の意味に従い、
「ト」が有力である。この文字「ト」のオブジェクトA
の方に大きな重み付けが行われ、記憶装置部306から
メモリ305に転送された重み付け係数k3が前述の重
み付け係数k1に代えて決定される。
Steps d1 to d4 in FIG. 7 are the same as steps b1 to b4 in FIG. 3 in the above embodiment. Further, steps d6 to d12 in FIG. 7 are the same as steps b6 to b12 in FIG. In this embodiment,
Each of the objects A and B has the meaning of characters such as characters and symbols, and the objects A and B are weighted according to the meaning of words and the like. When the user inputs a character by the input operation of the point input unit 302a or the key input unit 303, according to the meaning of the character, for example, when the character string “point” has already been input by the user, the next input character is According to the meaning of the characters,
"G" is influential. Object A of this character "G"
Is weighted more, and the weighting coefficient k3 transferred from the storage unit 306 to the memory 305 is determined instead of the weighting coefficient k1.

【0056】図10は、図9に示される実施の形態にお
ける重み付け係数k3を示す図である。すでに入力され
た文字列「ポイン」による意味合いの関連性が大きい複
数のオブジェクトA,Bの文字のうち、たとえばオブジ
ェクトAに対応する文字「ト」は、その意味合いの関連
性が大きく、したがって重み付け係数k3は小さく設定
され、これによって他の文字のオブジェクトBよりも優
先的に選択されることができる。また文字「ト」のほか
に、文字「テ」を用いて「ポインティング」の単語が想
定される場合、文字「テ」のオブジェクトBに対しても
重み付け係数k2が、メモリ305のストア領域305
bから読出される。この場合、文字の意味合いの関連性
に基づき、文字「テ」よりも、文字「ト」の方がオブジ
ェクトA,Bの重み付けは重くなり、すなわち重み付け
係数k2は小さくなる。オブジェクトA,Bの重み付け
は、通常、各単語の第2文字目より第3文字目とそれ以
後の文字のオブジェクトA,Bに対して重み付けが重く
なるように設定される。このような動作は、図9のステ
ップe5において行われる。図9のステップe1〜e4
は、前述の実施の形態における図3のステップb1〜b
4と同様である。また図9のステップe6〜e12は、
前述の図3におけるステップb6〜b12と同様であ
る。
FIG. 10 is a diagram showing the weighting coefficient k3 in the embodiment shown in FIG. Of the characters of the plurality of objects A and B, which have a high relevance of the meaning of the already input character string "point", for example, the character "g" corresponding to the object A has a high relevance of the meaning, and therefore has a weighting factor. k3 is set to be small, so that it can be selected with higher priority than the object B of other characters. When the word “pointing” is assumed using the character “te” in addition to the character “g”, the weighting coefficient k2 is also stored in the storage area 305 of the memory 305 for the object B of the character “te”.
b. In this case, based on the relevance of the meaning of the characters, the weight of the objects A and B is heavier in the character "G" than in the character "T", that is, the weighting coefficient k2 is smaller. Normally, the weights of the objects A and B are set so that the weights are higher for the objects A and B of the third and subsequent characters of the second character of each word. Such an operation is performed in step e5 of FIG. Steps e1 to e4 in FIG.
Correspond to steps b1 to b in FIG. 3 in the above embodiment.
Same as 4. Steps e6 to e12 in FIG.
This is the same as steps b6 to b12 in FIG.

【0057】図11は、本発明の実施のさらに他の形態
の中央処理部301の動作を説明するためのフローチャ
ートである。この実施の形態は、前述の図1〜図10に
それぞれ示される実施の形態に類似する。特に図11の
ステップf1〜f3は、図3のステップb1〜b3と同
様である。図11のステップf4〜f6は、図5のステ
ップc1〜c6と同様である。図11のステップf7
は、図3のステップb5と同様である。図11のステッ
プf8は、図7のステップd5と同様である。図11の
ステップf9は、図9のステップe5と同様である。さ
らに、図11のステップf10〜f15は、図3のステ
ップb6〜b12と同様である。
FIG. 11 is a flowchart for explaining the operation of the central processing unit 301 according to still another embodiment of the present invention. This embodiment is similar to the embodiments shown in FIGS. Particularly, steps f1 to f3 in FIG. 11 are the same as steps b1 to b3 in FIG. Steps f4 to f6 in FIG. 11 are the same as steps c1 to c6 in FIG. Step f7 in FIG.
Is the same as step b5 in FIG. Step f8 in FIG. 11 is the same as step d5 in FIG. Step f9 in FIG. 11 is the same as step e5 in FIG. Further, steps f10 to f15 in FIG. 11 are the same as steps b6 to b12 in FIG.

【0058】ユーザが前述のように個別的に、図5およ
び図6、図3、図7〜図8、ならびに図9および図10
の実施の形態の順で、オブジェクトA,Bの重み付けを
設定した場合、前述の図5および図6の実施の形態と同
様の手順で、表示部304に表示されているオブジェク
トA,Bの座標を記憶部306からステップf2におい
て得る。ステップf3においてユーザが各種のポインテ
ィングデバイスで入力した座標を、点入力部302aお
よび点入力制御部302bから得て検索座標値を算出
し、またはキー入力部303の操作によって検索座標値
を得る。ステップf4では、ユーザ指定情報が、メモリ
領域305bにストアされて登録されているかを確認
し、ユーザ指定情報がストアされているならば、ステッ
プf4からステップf6に移り、検索座標値をユーザ指
定情報によってステップf6で確保する。ステップf5
では、各オブジェクトA,Bと検索座標の距離L1A,
L1Bを演算して求める。
5 and 6, FIGS. 3, 7-8, 9 and 10, respectively.
When the weights of the objects A and B are set in the order of the embodiment, the coordinates of the objects A and B displayed on the display unit 304 are displayed in the same procedure as in the embodiment of FIGS. 5 and 6 described above. Is obtained from the storage unit 306 in step f2. In step f3, the coordinates input by the user using various pointing devices are obtained from the point input unit 302a and the point input control unit 302b to calculate search coordinate values, or obtain the search coordinate values by operating the key input unit 303. In step f4, it is checked whether the user-specified information is stored and registered in the memory area 305b. If the user-specified information is stored, the process proceeds from step f4 to step f6, and the search coordinate value is changed to the user-specified information. In step f6. Step f5
Now, the distance L1A between each of the objects A and B and the search coordinates,
L1B is calculated and obtained.

【0059】ステップf7では、前述の図3のステップ
b5と同様に、使用頻度および選択回数nA,nBに従
って各オブジェクトA,Bの重み付け係数k1を記憶装
置部306からメモリ305に転送し、その重み付け係
数k1を決定する。ステップf8では、前述の図7のス
テップd1と同様にして点入力部302aまたはキー入
力部303の操作予測に従って、各オブジェクトA,B
の距離の計算の重み付け係数k2を決定する。
In step f7, similarly to step b5 in FIG. 3, the weighting coefficient k1 of each of the objects A and B is transferred from the storage unit 306 to the memory 305 according to the frequency of use and the number of selections nA and nB. Determine the coefficient k1. In step f8, in the same manner as in step d1 in FIG. 7 described above, the objects A and B are set according to the operation prediction of the point input unit 302a or the key input unit 303.
The weighting coefficient k2 for calculating the distance is determined.

【0060】ステップf9では、前述の図9のステップ
e5と同様に、単語の意味合い情報などに従って、各オ
ブジェクトA,Bの重み付け係数k3を決定する。こう
して図11のステップf7,f8,f9でそれぞれ得ら
れた各オブジェクトA,B毎の重み付け係数k1A,k
1B;k2A,k2B;k3A,k3Bから、ステップ
f10では、平均値の重み付け係数k4A,k4Bを演
算して再計算し、この平均値の重み付け係数k4A,k
4B(総括的にk4)に従って、前述の式5および式6
のように各オブジェクトA,B毎の距離L1A,L1B
に重み付けを行って再計算し、研磨距離L2A,L2B
を、ステップf10において得る。 k4A = (k1A+k2A+k3A)/3 …(11) k4B = (k1B+k2B+k3B)/3 …(12)
In step f9, similarly to step e5 in FIG. 9, the weighting coefficient k3 of each of the objects A and B is determined in accordance with the meaning information of the word. The weighting coefficients k1A, k1 for each of the objects A and B obtained in steps f7, f8, and f9 in FIG.
1B; k2A, k2B; k3A, k3B, in step f10, calculate and recalculate the average value weighting coefficients k4A, k4B, and calculate the average value weighting coefficients k4A, k4
4B (generally k4), the above-described equations 5 and 6
Distance L1A, L1B for each object A, B
Are re-calculated by weighting the polishing distances L2A and L2B.
Is obtained in step f10. k4A = (k1A + k2A + k3A) / 3 (11) k4B = (k1B + k2B + k3B) / 3 (12)

【0061】本発明の実施の他の形態では、記憶装置部
306に格納されているストア内容をクリアする手段が
設けられる。記憶装置部306は、フラッシュメモリに
よって実現され、またはEEPROM(電気的書込み可
能なリードオンリメモリ)などによって実現される不揮
発性メモリである。この記憶装置部306には、各ユー
ザ毎に、すべてのユーザの重み付け係数k1〜k4であ
る操作予測、ユーザ指定情報、単語の意味合い情報、使
用頻度、使用回数をストアする構成を有し、本発明によ
れば、点入力部302aの操作によって、またはキー入
力部303のクリア押釦303aの操作によって、記憶
装置部306にストアされている重み付け係数k1〜k
4を、各ユーザ毎に、またはすべてのユーザについて一
斉に消去してクリアすることができる。このようなクリ
ア動作は、点入力部302aおよびキー入力部303の
出力に応答する中央制御部301の動作によって実現す
ることができる。
In another embodiment of the present invention, there is provided means for clearing the stored contents stored in the storage unit 306. The storage unit 306 is a nonvolatile memory realized by a flash memory or an EEPROM (electrically readable read only memory). The storage unit 306 has a configuration for storing, for each user, the operation prediction, user designation information, word meaning information, usage frequency, and usage frequency, which are the weighting coefficients k1 to k4 of all users. According to the present invention, the weighting coefficients k1 to k stored in the storage device unit 306 by the operation of the point input unit 302a or the operation of the clear push button 303a of the key input unit 303.
4 can be erased and cleared for each user or for all users simultaneously. Such a clear operation can be realized by the operation of the central control unit 301 in response to the outputs of the point input unit 302a and the key input unit 303.

【0062】本発明の実施のさらに他の形態では、記憶
装置部306に格納されているストア内容を、中央処理
部301の働きによってストア内容を読出して、インタ
フェース部307から外部に出力して転送する手段が備
えられる。記憶装置部306には前述のように、各ユー
ザ毎、またはすべてのユーザの重み付け係数k1〜k4
がストアされ、これらの重み付け係数k1〜k4は、操
作予測、ユーザ指定情報、単語の意味合い情報、使用頻
度、使用回数に依存した値である。このような記憶装置
部306にストアされた重み付け係数k1〜k4などの
情報を、読出すことによって、フロッピディスクドライ
ブ装置によってフロッピディスクなどの記録媒体に書込
んでストアし、また赤外線通信装置などを介して伝送
し、こうして1つの情報処理装置310から、他の情報
処理装置にデータを転送することができる。これによっ
て前記他の情報処理装置において、ユーザが必要とする
重み付け係数k1〜k4を移植することができ、操作性
がさらに向上される。
In still another embodiment of the present invention, the contents of the store stored in the storage unit 306 are read out by the operation of the central processing unit 301 and output to the outside from the interface unit 307 for transfer. Means are provided for performing As described above, the storage unit 306 stores the weighting coefficients k1 to k4 for each user or for all users.
Are stored, and these weighting coefficients k1 to k4 are values dependent on operation prediction, user designation information, word meaning information, use frequency, and use count. By reading information such as the weighting coefficients k1 to k4 stored in the storage unit 306, the information is written and stored in a recording medium such as a floppy disk by a floppy disk drive, and an infrared communication device or the like is stored. , So that data can be transferred from one information processing device 310 to another information processing device. As a result, in the other information processing apparatus, the weighting coefficients k1 to k4 required by the user can be transplanted, and the operability is further improved.

【0063】入力手段によって入力指示された位置とオ
ブジェクトの位置との間の距離は、その入力指示された
位置とオブジェクトの重心の位置との間の距離であって
もよく、またはオブジェクトの外周部との間の距離であ
ってもよく、さらにオブジェクトの外周部との最短距離
であってもよく、さらにオブジェクトのそのほかの予め
定める部分との間の距離であってもよい。
The distance between the position indicated by the input means and the position of the object may be the distance between the position indicated by the input and the position of the center of gravity of the object, or the outer periphery of the object. May be the shortest distance to the outer periphery of the object, or may be the distance to another predetermined portion of the object.

【0064】[0064]

【発明の効果】本発明によれば、ユーザにとって操作性
の良い入力装置が実現され、特にその操作特性がオブジ
ェクト毎に設定されることによって、各オブジェクト毎
の操作オブジェクトの入力指示を、設定された特性に対
応して行うことができ、操作性の向上を図ることができ
る。
According to the present invention, an input device having good operability for a user is realized. In particular, by setting the operation characteristics of each object, an input instruction of an operation object for each object can be set. And the operability can be improved.

【0065】本発明によれば、オブジェクトの使用頻
度、選択回数によって入力指示された位置とオブジェク
トの位置との間の演算して得られた距離を、変化して設
定し、または弁別レベルを変更し、こうして計数された
回数が大きい値になるほど、演算して得られた距離を長
く変更し、または弁別レベルを短く変更し、オブジェク
トの入力を容易にし、操作性の向上を図ることができ
る。
According to the present invention, the distance obtained by calculating the position between the position designated by the use frequency and the number of selections of the object and the position of the object is changed, or the discrimination level is changed. The greater the number of times counted, the longer the distance obtained by calculation or the shorter the discrimination level, thereby facilitating object input and improving operability.

【0066】本発明に従えば、ユーザを指定し、各ユー
ザに対応した距離の演算手法を変化することによって、
ユーザが入力指示する癖などの情報に対応して、各ユー
ザ毎に操作性を向上することができる。
According to the present invention, by designating users and changing the method of calculating the distance corresponding to each user,
The operability can be improved for each user in accordance with information such as a habit that the user inputs and instructs.

【0067】本発明に従えば、複数の各オブジェクト毎
に優先順位を設定し、入力指示された位置とオブジェク
トの位置との距離を、優先順位に対応して優先順位が高
いほど演算して得られた距離を短く、または弁別レベル
を長く設定する。こうして各オブジェクト毎に操作性が
良好となり、誤ったオブジェクトの入力指示を行うこと
を防ぐことができる。
According to the present invention, a priority is set for each of a plurality of objects, and the distance between the position designated by the input and the position of the object is calculated and obtained in accordance with the priority as the priority becomes higher. Set a shorter distance or increase the discrimination level. Thus, the operability is improved for each object, and it is possible to prevent an erroneous object input instruction.

【0068】本発明によれば、各オブジェクトの優先順
位は、たとえばアプリケーションプログラムの実行によ
る演算処理が実行される確率に対応し、次に実行される
べきアプリケーションプログラムの確率が高いオブジェ
クトほど、優先順位を高くし、これによってアプリケー
ションに対応したオブジェクトの選択入力を容易にする
ことができる。
According to the present invention, the priority of each object corresponds to, for example, the probability that the arithmetic processing is executed by the execution of the application program. The higher the probability of the application program to be executed next, the higher the priority of the object. , Thereby making it easy to select and input an object corresponding to the application.

【0069】本発明によれば、単語などの文字、記号な
どのキャラクタの意味合いの関連性の大小に対応して優
先順位を設定し、こうしてたとえばワードプロセッサな
どにおける各文字毎のオブジェクトの入力の操作性を向
上することができる。
According to the present invention, priorities are set in accordance with the magnitude of the relevance of the meaning of characters such as words and characters such as symbols. Thus, for example, the operability of inputting an object for each character in a word processor or the like Can be improved.

【0070】本発明によれば、複数の各ユーザを指定す
ることによって、各ユーザ毎に複数の各オブジェクトに
優先順位を設定し、こうして各ユーザ毎に入力操作の操
作性が向上され、使い勝手の良好な入力装置が実現され
る。
According to the present invention, by designating a plurality of users, priorities are set to a plurality of objects for each user, and thus the operability of the input operation is improved for each user, and the usability is improved. A good input device is realized.

【0071】本発明によれば、オブジェクトの入力指示
の操作特性をクリア手段によってクリアすることができ
るようにし、こうしてたとえば誤って入力された操作特
性を消去し、操作性の良好な状態を得ることができる。
According to the present invention, the operation characteristics of an input instruction of an object can be cleared by the clearing means, and thus, for example, the operation characteristics input erroneously can be erased, and a good operability state can be obtained. Can be.

【0072】本発明によれば、操作特性を読出して転送
することができ、したがって或る1つの入力操作のため
の入力装置で用いられたユーザ毎の操作特性を、他の入
力装置においてそのまま用いることができる。こうして
入力装置を備える、たとえば情報処理装置などにおい
て、操作性の向上を図ることができる。
According to the present invention, the operation characteristics can be read out and transferred, so that the operation characteristics for each user used in the input device for a certain input operation can be directly used in another input device. be able to. Thus, operability can be improved in, for example, an information processing device including an input device.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態の表示画面を用いる入力
装置310の全体の構成を示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of an input device 310 using a display screen according to an embodiment of the present invention.

【図2】表示部304の表示画面を示す図である。FIG. 2 is a diagram showing a display screen of a display unit 304.

【図3】中央処理部301の動作を説明するためのフロ
ーチャートである。
FIG. 3 is a flowchart illustrating an operation of a central processing unit 301.

【図4】オブジェクトA,Bの選択回数と重み付け係数
k1との関係を示す図である。
FIG. 4 is a diagram showing a relationship between the number of selections of objects A and B and a weighting coefficient k1.

【図5】本発明の実施の他の形態における中央処理部3
01の動作を説明するためのフローチャートである。
FIG. 5 is a central processing unit 3 according to another embodiment of the present invention.
11 is a flowchart for explaining the operation of the first embodiment.

【図6】図5の実施の形態におけるメモリ領域305b
のストア内容を示す図である。
FIG. 6 is a memory area 305b in the embodiment of FIG.
It is a figure which shows the store content of.

【図7】本発明の実施の他の形態における中央処理部3
01の動作を説明するためのフローチャートである。
FIG. 7 is a central processing unit 3 according to another embodiment of the present invention.
11 is a flowchart for explaining the operation of the first embodiment.

【図8】図7に示される実施の形態におけるメモリ領域
305bのストア内容を説明する図である。
FIG. 8 is a diagram illustrating the contents stored in a memory area 305b in the embodiment shown in FIG. 7;

【図9】本発明の実施の他の形態における中央処理部3
01の動作を説明するためのフローチャートである。
FIG. 9 shows a central processing unit 3 according to another embodiment of the present invention.
11 is a flowchart for explaining the operation of the first embodiment.

【図10】図9に示される実施の形態における重み付け
係数k3を示す図である。
FIG. 10 is a diagram showing a weighting coefficient k3 in the embodiment shown in FIG. 9;

【図11】本発明の実施のさらに他の形態の中央処理部
301の動作を説明するためのフローチャートである。
FIG. 11 is a flowchart illustrating an operation of a central processing unit 301 according to still another embodiment of the present invention.

【図12】本発明の先行技術を示す図である。FIG. 12 is a diagram showing a prior art of the present invention.

【図13】本発明の先行技術を示す図である。FIG. 13 is a diagram showing a prior art of the present invention.

【符号の説明】[Explanation of symbols]

301 中央処理部 302a 点入力部 302b 点入力処理部 302c 座標位置 303 キー入力部 304 表示部 305 メモリ 306 記憶装置部 307 入力/出力インタフェース部 301 Central processing unit 302a Point input unit 302b Point input processing unit 302c Coordinate position 303 Key input unit 304 Display unit 305 Memory 306 Storage unit 307 Input / output interface unit

フロントページの続き Fターム(参考) 5B087 AA09 AB04 AE09 CC01 CC05 DD03 DJ03 5E501 AA02 AA14 AC36 BA05 CA03 CA04 CB09 CB11 DA04 EB05 EB06 FA02 Continued on front page F-term (reference) 5B087 AA09 AB04 AE09 CC01 CC05 DD03 DJ03 5E501 AA02 AA14 AC36 BA05 CA03 CA04 CB09 CB11 DA04 EB05 EB06 FA02

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 入力指示されるべきオブジェクトを表示
する表示画面を有する表示手段と、 表示画面の入力操作によってオブジェクトの入力指示を
行う入力手段と、 入力手段の出力に応答し、表示手段の表示画面内で、入
力手段によって入力指示された位置とオブジェクトの位
置との間の距離L12,L13を演算する距離演算手段
と、 オブジェクトの入力指示の操作特性を設定する特性設定
手段と、 距離演算手段と特性設定手段との出力に応答し、オブジ
ェクトの入力指示を、設定された前記特性に対応した前
記距離に関連するレベル弁別によって、行う入力制御手
段とを含むことを特徴とする表示画面を用いる入力装
置。
A display means having a display screen for displaying an object to be input-designated, an input means for instructing input of an object by an input operation on the display screen, and a display means responsive to an output of the input means. Distance calculating means for calculating distances L12 and L13 between the position designated by the input means and the position of the object in the screen; characteristic setting means for setting operation characteristics of the input instruction of the object; And an input control unit that responds to the output of the characteristic setting unit and performs an input instruction of the object by level discrimination related to the distance corresponding to the set characteristic. Input device.
【請求項2】 特性設定手段は、 入力手段によるオブジェクトの入力操作回数nA,nB
を計数する計数手段と、 計数手段の出力に応答し、計数された回数が大きい値に
なる程、前記距離L12,L13を短く変更して設定す
る距離設定手段とを含み、 入力制御手段は、 距離設定手段によって変更設定された前記距離L22,
L23が予め定める弁別レベルL3A,L3B以下であ
るとき、入力指示を可能にし、 前記弁別レベルを超えるとき、入力指示を禁止すること
を特徴とする請求項1記載の表示画面を用いる入力装
置。
2. The characteristic setting means includes: number of input operations nA, nB of an object by the input means;
And a distance setting means for responding to the output of the counting means and changing and setting the distances L12 and L13 to be shorter as the number of times counted increases. The input control means comprises: The distance L22 changed and set by the distance setting means,
The input device using a display screen according to claim 1, wherein an input instruction is enabled when L23 is equal to or lower than a predetermined discrimination level L3A, L3B, and the input instruction is prohibited when the difference exceeds the discrimination level.
【請求項3】 特性設定手段は、 複数の各ユーザを指定するユーザ指定手段と、 ユーザ指定手段の出力に応答し、各ユーザに対応した前
記距離の演算手法を変化して設定する演算手法設定手段
とを含み、 入力制御手段は、前記演算手法によって得られた距離を
レベル弁別することを特徴とする請求項1または2記載
の表示画面を用いる装置。
3. The characteristic setting means includes: a user designating means for designating a plurality of users; and a calculation technique setting for responding to an output of the user designating means and changing and setting a distance calculation technique corresponding to each user. 3. The apparatus using the display screen according to claim 1, wherein the input control means performs level discrimination of the distance obtained by the calculation method.
【請求項4】 距離演算手段は、入力手段によって入力
指示された位置と、複数の各オブジェクトの位置との間
の各距離L1A,L1Bを演算し、 特性設定手段は、 複数の各オブジェクトに優先順位を設定する優先順位設
定手段を含み、 入力制御手段は、 距離演算手段と優先順位設定手段との出力に応答し、 演算された各距離を、優先順位に関連してレベル弁別す
ることを特徴とする請求項1〜3のうちの1つに記載の
表示画面を用いる入力装置。
4. The distance calculating means calculates distances L1A and L1B between the position designated by the input means and the positions of the plurality of objects, and the characteristic setting means has priority over the plurality of objects. A priority setting means for setting a priority, wherein the input control means responds to outputs from the distance calculating means and the priority setting means, and discriminates the calculated distances in relation to the priority. An input device using the display screen according to any one of claims 1 to 3.
【請求項5】 各オブジェクトは、演算処理の種類に対
応しており、 入力指示された演算処理を行う演算処理手段が設けら
れ、 優先順位設定手段は、 予め定める順序に従って、前記各演算処理が実行される
確率を設定する確率設定手段と、 確率設定手段の出力に応答し、オブジェクトの確率が高
い程、優先順位を高く設定することを特徴とする請求項
4記載の表示画面を用いる入力装置。
5. Each object corresponds to a type of arithmetic processing, and arithmetic processing means for performing an input-instructed arithmetic processing is provided. The priority order setting means performs the arithmetic processing according to a predetermined order. 5. An input device using a display screen according to claim 4, wherein a probability setting means for setting a probability to be executed, and wherein the priority is set higher as the probability of the object is higher, in response to an output of the probability setting means. .
【請求項6】 各オブジェクトは、キャラクタに対応し
ており、 前記優先順位設定手段は、 入力指示されたキャラクタをストアするメモリと、 メモリにストアされたキャラクタと意味合いの関連性の
大小に対応して各オブジェクトに優先順位を設定する意
味合い優先順位設定手段とを含むことを特徴とする請求
項4記載の表示画面を用いる入力装置。
6. Each of the objects corresponds to a character, and the priority order setting means corresponds to a memory for storing the input and instructed character and a magnitude of the relevance of the character stored in the memory. 5. An input device using a display screen according to claim 4, further comprising: means for setting a priority order for each object.
【請求項7】 特性設定手段は、 複数の各ユーザを指定するユーザ指定手段を有し、 優先順位設定手段は、 ユーザ指定手段の出力に応答し、ユーザ毎に、複数の各
オブジェクトに優先順位を設定することを特徴とする請
求項4記載の表示画面を用いる入力装置。
7. The characteristic setting means has a user designating means for designating each of a plurality of users. The priority setting means responds to an output of the user designating means and gives priority to each of the plurality of objects for each user. 5. An input device using a display screen according to claim 4, wherein:
【請求項8】 オブジェクトの入力指示の操作特性をク
リアするクリア手段を含み、 特性設定手段は、 クリア手段の出力に応答し、予め定める操作特性を設定
することを特徴とする請求項2〜7のうちの1つに記載
の表示画面を用いる入力装置。
8. A method according to claim 2, further comprising clearing means for clearing an operation characteristic of the input instruction of the object, wherein the characteristic setting means sets a predetermined operation characteristic in response to an output of the clearing means. An input device using the display screen according to one of the above.
【請求項9】 特性設定手段によって設定された操作特
性を読出して転送する手段をさらに含むことを特徴とす
る請求項1〜8のうちの1つに記載の表示画面を用いる
入力装置。
9. The input device using a display screen according to claim 1, further comprising: means for reading out and transferring the operation characteristics set by the characteristic setting means.
JP20092299A 1999-07-14 1999-07-14 Input device using display screen Pending JP2001027924A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20092299A JP2001027924A (en) 1999-07-14 1999-07-14 Input device using display screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20092299A JP2001027924A (en) 1999-07-14 1999-07-14 Input device using display screen

Publications (1)

Publication Number Publication Date
JP2001027924A true JP2001027924A (en) 2001-01-30

Family

ID=16432517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20092299A Pending JP2001027924A (en) 1999-07-14 1999-07-14 Input device using display screen

Country Status (1)

Country Link
JP (1) JP2001027924A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005259148A (en) * 2004-03-12 2005-09-22 Dassault Systemes Method and program for selecting element
JP2008027287A (en) * 2006-07-24 2008-02-07 Navitime Japan Co Ltd Map display system, map display device, map display method and map distribution server
WO2008081733A1 (en) * 2006-12-28 2008-07-10 International Business Machines Corporation Method, system, program for assisting object selection when web page is authored
US7676766B2 (en) 2004-03-25 2010-03-09 Fujitsu Limited Graphic object designating to edit apparatus, method, and computer readable medium thereof
JP2014527640A (en) * 2011-07-13 2014-10-16 コーニンクレッカ フィリップス エヌ ヴェ Method for automatically adjusting the focal plane of a digital pathological image
JP2015018572A (en) * 2010-06-14 2015-01-29 アップル インコーポレイテッド Control selection approximation
US9285908B2 (en) 2009-03-16 2016-03-15 Apple Inc. Event recognition
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US9389712B2 (en) 2008-03-04 2016-07-12 Apple Inc. Touch event model
US9483121B2 (en) 2009-03-16 2016-11-01 Apple Inc. Event recognition
US9529519B2 (en) 2007-01-07 2016-12-27 Apple Inc. Application programming interfaces for gesture operations
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9798459B2 (en) 2008-03-04 2017-10-24 Apple Inc. Touch event model for web pages
JP6388744B1 (en) * 2017-09-08 2018-09-12 三菱電機株式会社 Ranging device and ranging method
US10963142B2 (en) 2007-01-07 2021-03-30 Apple Inc. Application programming interfaces for scrolling

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005259148A (en) * 2004-03-12 2005-09-22 Dassault Systemes Method and program for selecting element
JP4546855B2 (en) * 2004-03-12 2010-09-22 ダッソー システムズ Method and program for selecting elements
US7689936B2 (en) 2004-03-12 2010-03-30 Dassault Systemes Process for selecting and handling objects in a computer-aided design system
US7676766B2 (en) 2004-03-25 2010-03-09 Fujitsu Limited Graphic object designating to edit apparatus, method, and computer readable medium thereof
JP2008027287A (en) * 2006-07-24 2008-02-07 Navitime Japan Co Ltd Map display system, map display device, map display method and map distribution server
JP4549322B2 (en) * 2006-07-24 2010-09-22 株式会社ナビタイムジャパン Map display system, map display device, map display method, and map distribution server
US11288337B2 (en) 2006-12-28 2022-03-29 International Business Machines Corporation Object selection in web page authoring
WO2008081733A1 (en) * 2006-12-28 2008-07-10 International Business Machines Corporation Method, system, program for assisting object selection when web page is authored
US8850332B2 (en) 2006-12-28 2014-09-30 International Business Machines Corporation Object selection in web page authoring
US11449217B2 (en) 2007-01-07 2022-09-20 Apple Inc. Application programming interfaces for gesture operations
US10963142B2 (en) 2007-01-07 2021-03-30 Apple Inc. Application programming interfaces for scrolling
US10613741B2 (en) 2007-01-07 2020-04-07 Apple Inc. Application programming interface for gesture operations
US9575648B2 (en) 2007-01-07 2017-02-21 Apple Inc. Application programming interfaces for gesture operations
US10175876B2 (en) 2007-01-07 2019-01-08 Apple Inc. Application programming interfaces for gesture operations
US9665265B2 (en) 2007-01-07 2017-05-30 Apple Inc. Application programming interfaces for gesture operations
US9529519B2 (en) 2007-01-07 2016-12-27 Apple Inc. Application programming interfaces for gesture operations
US10521109B2 (en) 2008-03-04 2019-12-31 Apple Inc. Touch event model
US9971502B2 (en) 2008-03-04 2018-05-15 Apple Inc. Touch event model
US10936190B2 (en) 2008-03-04 2021-03-02 Apple Inc. Devices, methods, and user interfaces for processing touch events
US9690481B2 (en) 2008-03-04 2017-06-27 Apple Inc. Touch event model
US9720594B2 (en) 2008-03-04 2017-08-01 Apple Inc. Touch event model
US9389712B2 (en) 2008-03-04 2016-07-12 Apple Inc. Touch event model
US9798459B2 (en) 2008-03-04 2017-10-24 Apple Inc. Touch event model for web pages
US11740725B2 (en) 2008-03-04 2023-08-29 Apple Inc. Devices, methods, and user interfaces for processing touch events
US11755196B2 (en) 2009-03-16 2023-09-12 Apple Inc. Event recognition
US9965177B2 (en) 2009-03-16 2018-05-08 Apple Inc. Event recognition
US9483121B2 (en) 2009-03-16 2016-11-01 Apple Inc. Event recognition
US11163440B2 (en) 2009-03-16 2021-11-02 Apple Inc. Event recognition
US10719225B2 (en) 2009-03-16 2020-07-21 Apple Inc. Event recognition
US9285908B2 (en) 2009-03-16 2016-03-15 Apple Inc. Event recognition
US10732997B2 (en) 2010-01-26 2020-08-04 Apple Inc. Gesture recognizers with delegates for controlling and modifying gesture recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
JP2016197448A (en) * 2010-06-14 2016-11-24 アップル インコーポレイテッド Control selection approximation
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
JP2015018572A (en) * 2010-06-14 2015-01-29 アップル インコーポレイテッド Control selection approximation
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
JP2017223975A (en) * 2011-07-13 2017-12-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method for automatically adjusting focal plane of digital pathology image
JP2014527640A (en) * 2011-07-13 2014-10-16 コーニンクレッカ フィリップス エヌ ヴェ Method for automatically adjusting the focal plane of a digital pathological image
US11429190B2 (en) 2013-06-09 2022-08-30 Apple Inc. Proxy gesture recognizer
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
WO2019049317A1 (en) * 2017-09-08 2019-03-14 三菱電機株式会社 Position correction device and position correction method
JP6388744B1 (en) * 2017-09-08 2018-09-12 三菱電機株式会社 Ranging device and ranging method

Similar Documents

Publication Publication Date Title
JP2001027924A (en) Input device using display screen
US8558790B2 (en) Portable device and control method thereof
JP5784551B2 (en) Gesture recognition method and touch system for realizing the method
EP2917823B1 (en) Portable device and control method thereof
US8497837B1 (en) Portable device and control method thereof
US7286115B2 (en) Directional input system with automatic correction
US8957857B2 (en) Device and method for controlling mouse pointer
US8799277B2 (en) Portable device, photography processing method, and photography processing system having the same
US20080152263A1 (en) Data transfer using hand-held device
US9891822B2 (en) Input device and method for providing character input interface using a character selection gesture upon an arrangement of a central item and peripheral items
US11210310B2 (en) Method for rendering search results on a map displayable on an electronic device
US20110242137A1 (en) Touch screen apparatus and method for processing input of touch screen apparatus
EP2363793A2 (en) Information processing apparatus, information processing method, and program
US20060176283A1 (en) Finger activated reduced keyboard and a method for performing text input
KR20100126726A (en) Interpreting ambiguous inputs on a touch-screen
CN104798016A (en) Incremental multi-touch gesture recognition
US20160034041A1 (en) Wearable device and method of operating the same
EP1738248A1 (en) Touch screen adapting presented information in dependence of wether a touching tool or finger is used
EP2642377A1 (en) Handheld device and homescreen management method thereof
EP3053015B1 (en) Digital device and control method thereof
CN108920055A (en) touch operation method, device, storage medium and electronic equipment
US20170160875A1 (en) Electronic apparatus having a sensing unit to input a user command adn a method thereof
JP2006005655A (en) Input device and input program provided with item processing function, and computer readable recording medium
KR20160027692A (en) Digital device copying digital contents through the overlap of screens and control method thereof
JP6599504B2 (en) Touch error calibration method and system