JP2005352738A - Pointing operation system using target position prediction - Google Patents

Pointing operation system using target position prediction Download PDF

Info

Publication number
JP2005352738A
JP2005352738A JP2004172321A JP2004172321A JP2005352738A JP 2005352738 A JP2005352738 A JP 2005352738A JP 2004172321 A JP2004172321 A JP 2004172321A JP 2004172321 A JP2004172321 A JP 2004172321A JP 2005352738 A JP2005352738 A JP 2005352738A
Authority
JP
Japan
Prior art keywords
target
pointer
speed
predicted
peak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004172321A
Other languages
Japanese (ja)
Inventor
Yoshifumi Kitamura
喜文 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I TECHNOLOGY KK
Technology Kk I
Original Assignee
I TECHNOLOGY KK
Technology Kk I
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I TECHNOLOGY KK, Technology Kk I filed Critical I TECHNOLOGY KK
Priority to JP2004172321A priority Critical patent/JP2005352738A/en
Publication of JP2005352738A publication Critical patent/JP2005352738A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interface capable of shortening a time of a pointing operation by a mouse, a 3D tracker, etc., in a GUI environment on a large-sized, high-resolution screen and in a virtual space. <P>SOLUTION: In the pointing operation, the peak speed in pointer movement and the distance up to a target at the point of time are correlative, and thereby the distance to the target is obtained from the peak speed and the target position is predicted from a pointer position and a direction, that an object position to which a user desires to move the pointer can be predicted by a system side before operation completion. Consequently, the system can shorten the operation time by actuating an application that an icon present there indicates and so on. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、情報端末装置の画面上または仮想現実空間内でのポインティング操作予測技術に関し、特にマウス、三次元トラッカー等のポインティングデバイスの操作に関するものである。   The present invention relates to a pointing operation prediction technique on a screen of an information terminal device or in a virtual reality space, and more particularly to an operation of a pointing device such as a mouse or a three-dimensional tracker.

近年、情報処理装置画面は大画面化、高解像度のディスプレイが採用されている。このようなGUI(Graphical User Interface)環境下では、ポインティング操作に必要な時間が増加する傾向にあり、今後この傾向は益々顕著になると推定される。このためマウス等のポインティング操作の時間を短縮できるインターフェイスが必要とされる。   In recent years, the information processing apparatus has a large screen and a high resolution display. In such a GUI (Graphical User Interface) environment, the time required for the pointing operation tends to increase, and it is estimated that this tendency will become more prominent in the future. For this reason, an interface capable of reducing the time for pointing operation such as a mouse is required.

従来、現在のポインタの位置を元にその近傍領域を検索領域とし、検索領域範囲内に操作対象となるオブジェクトが存在するかをチェックし、存在する場合に自動的にそのオブジェクトの位置にポインタを移動させるものがあった(特許文献1)。   Conventionally, based on the current pointer position, the neighborhood area is used as a search area, and it is checked whether there is an object to be operated in the search area range. If there is, the pointer is automatically moved to the object position. There was something to move (patent document 1).

また、画面上のポインタ移動方向を示す直線上に操作対象となるオブジェクトが存在するかをチェックし、存在する場合に自動的にそのオブジェクトの位置にポインタを移動させるものがあった(特許文献2)。   In addition, there is a device that checks whether an object to be operated exists on a straight line indicating a pointer movement direction on the screen, and automatically moves the pointer to the position of the object if there exists (Patent Document 2). ).

また、画面上でポインタを移動させる場合に、ポインタの位置、移動方向、および移動速度の情報に応じて、ポインタの移動先の検索範囲を想定し、検索範囲内から現在のポインタ位置に最も近い位置にあるオブジェクトを移動先オブジェクトと予測し、ポインタを自動的に移動させるものがあった(特許文献3)。   Also, when moving the pointer on the screen, the search range of the pointer destination is assumed according to the information on the position, moving direction, and moving speed of the pointer, and is closest to the current pointer position from within the search range Some objects predict a moving object as a destination object and automatically move the pointer (Patent Document 3).

さらに、あらかじめマウスの速度プロファイル関数を準備し、マウスの動き出し速度の傾きから最も近似する速度プロファイル関数を抽出して、それに基づき移動先オブジェクトと予測し、ポインタを自動的に移動させるものがあった(特許文献4)。   In addition, some mouse speed profile functions were prepared in advance, the most approximate speed profile function was extracted from the slope of the mouse movement speed, and the target object was predicted based on that, and the pointer was moved automatically. (Patent Document 4).

特開平8−76956号公報JP-A-8-76956 特開平6−83540号公報JP-A-6-83540 特開平10−222307号公報JP-A-10-222307 特開平9−244808号公報JP-A-9-244808

第1の課題は、上記特許文献1に記載されている技術において、現在のポインタ位置の近傍を検索領域とする方法では、ユーザがポインタを移動させたいオブジェクトと現在のポインタ位置との距離が大きい場合、多くの回数のポインティングデバイス操作が必要となり、操作性が好ましくないことである。   The first problem is that, in the technique described in Patent Document 1, in the method in which the vicinity of the current pointer position is used as the search area, the distance between the object to which the user wants to move the pointer and the current pointer position is large. In many cases, the pointing device must be operated many times, and the operability is not preferable.

第2の課題は、上記特許文献2に記載されている技術において、現在のポインタ移動方向の延長線上にオブジェクトを検索する方法では、ユーザがポインタを移動させたいオブジェクトと現在のポインタ位置との距離が小さい場合、ポインタを移動させたいオブジェクトが現在のポインタ位置の近くにあるにもかかわらずポインタを移動させる方向によっては全く目的としていない離れたオブジェクトへポインタが移動してしまう可能性があり、操作性が好ましくないことである。   The second problem is that, in the technique described in Patent Document 2, in the method of searching for an object on an extension line in the current pointer movement direction, the distance between the object to which the user wants to move the pointer and the current pointer position. If the object is small, the pointer may move to a distant object that is not intended at all depending on the direction in which the pointer is moved even though the object to which the pointer is to be moved is near the current pointer position. The property is not preferable.

第3の課題は、上記特許文献3に記載されている技術において、ポインタの移動速度の情報に応じてポインタの移動先の検索範囲を想定しオブジェクトを予測する方法では、移動速度に応じて検索範囲を広げ設定するため、ユーザがポインタを移動させたいオブジェクトと現在のポインタ位置との間に別のオブジェクトが存在すれば、オブジェクトの選択ができず、操作性が好ましくないことである。
また、特許文献3に開示されている方法では、移動速度が0になったとき、すなわち、速度プロファイルが完結したときに予測動作が行われるため、予測するためにはマウスなどのポインティングデバイス操作を必ず停止させる必要があった。
さらに、特許文献3に開示されている方法では、ポインタ移動方向がポインタの停止直前の移動方向の延長線上になるため、素早くポインティングデバイスを操作している場合には、停止直前の移動方向はノイズが多くなり、ターゲットオブジェクトの方向と一致しない場合が多い。
A third problem is that, in the technique described in Patent Document 3, the method of predicting an object assuming a search range of a pointer movement destination according to information on the movement speed of the pointer performs a search according to the movement speed. If the user wants to move the pointer and another object exists between the current pointer position and the range is set, the object cannot be selected and the operability is not preferable.
Further, in the method disclosed in Patent Document 3, a prediction operation is performed when the moving speed becomes zero, that is, when the speed profile is completed. I had to stop it.
Furthermore, in the method disclosed in Patent Document 3, since the pointer movement direction is an extension of the movement direction just before the pointer stops, the movement direction just before the stop is noise when the pointing device is operated quickly. Often increases and does not match the direction of the target object.

第4の課題は、上記特許文献4に記載されている技術において、速度プロファイルを使っているが、今の動きがどの速度プロファイルと似ているかを動き始めの移動速度の立ち上がりにより判断しているため、ブレや誤差が大きくなっていることである。最初の動きだしではノイジィであり、特に人のうごきはジャギーに動くため、最初の動きで判断する方法は好ましくない。
また、あらかじめ状況に応じた速度プロファイルの関数群を用意しておく必要があった。
The fourth problem is that the speed profile is used in the technique described in Patent Document 4 above, but it is determined from the rise of the moving speed at the start of movement which speed profile is similar to the current movement. For this reason, blurring and errors are increasing. Since the initial movement is noisy and the human movement is particularly jagged, the method of judging by the first movement is not preferable.
In addition, it is necessary to prepare a function group of speed profiles according to the situation in advance.

本発明者はヒューマンインターフェイスについて鋭意に研究を行った結果、ポインティング操作時に、ユーザがポインタを移動させたいオブジェクト位置を、システム側が操作完了前に予測できることにより、その場所に存在するアイコンが示すアプリケーションを起動し始める等して、作業時間を短縮し、また、ユーザの作業負担を軽減できる可能性があり、非常に有効であることを知見した。   As a result of earnestly researching the human interface, the present inventor has found that an application indicated by an icon existing at the location can be predicted by the system side before the operation is completed by the system side when the user wants to move the pointer during the pointing operation It has been found that there is a possibility that the work time can be shortened by starting to start and the work burden on the user can be reduced, which is very effective.

また、本発明者は、ポインティング操作において、ポインタ移動中のピーク速度とその時点でのターゲットまでの距離に相関があることに着目した。すなわち、下記式により、ポインタ移動中のピーク速度とその時点でのターゲットまでの距離を表すことができ、下記式を利用して、ピーク速度からターゲット位置を予測できることを知見し、本発明を完成するに至った。   Further, the inventor has focused on the fact that there is a correlation between the peak speed during the pointer movement and the distance to the target at that point in the pointing operation. That is, the following formula can be used to represent the peak speed during the pointer movement and the distance to the target at that time, and the following formula is used to find that the target position can be predicted from the peak speed, completing the present invention. It came to do.

(数1)
ターゲットまでの予測距離=a×ピーク速度+b
(Equation 1)
Predicted distance to target = a × peak speed + b

ここで、a、bはキャリブレーションなどの試行により求まるパラメータ係数であり、ポインティング操作を行う個々の操作者によって異なる値をとる。   Here, a and b are parameter coefficients obtained by trials such as calibration, and take different values depending on individual operators performing the pointing operation.

本発明に係るポインティング操作システムの第1の観点によれば、「情報端末装置の画面上でマウスなどのポインティングデバイスを操作してマウスカーソルなどのポインタを移動させる場合または仮想現実空間内で3次元トラッカーなどを操作してポインタを移動させる場合において、前記ポインタ位置もしくはポインタ速度の情報を取り込み、前記ポインタ速度が増加から減少に変化する点としてポインタ速度の極大値(ピーク速度)を検出し、前記ピーク速度からターゲットまでの予測距離を1次相関関数によって算出し、前記ターゲットまでの予測距離とピーク速度時のポインタ位置とポインタ移動方向からターゲット予測位置を算出し、前記ターゲット予測位置から一定範囲に存在するオブジェクト(アイコンなど)のうち1のオブジェクトを選択できる」機能が提供される。   According to the first aspect of the pointing operation system of the present invention, “when a pointing device such as a mouse is operated on a screen of an information terminal device to move a pointer such as a mouse cursor or three-dimensionally in a virtual reality space” When the pointer is moved by operating a tracker or the like, the information on the pointer position or the pointer speed is captured, and the maximum value (peak speed) of the pointer speed is detected as a point at which the pointer speed changes from an increase to a decrease. The predicted distance from the peak speed to the target is calculated by a linear correlation function, the target predicted position is calculated from the predicted distance to the target, the pointer position at the peak speed, and the pointer moving direction, and is within a certain range from the target predicted position. One of the existing objects (icons, etc.) The objects can be selected "function is provided.

ここで、1次相関関数とは上述の数1で示される数式である。ピーク速度を三次元ベクトルで示すことにより、二次元の情報端末画面上のみならず、三次元の仮想空間内でのポインティングデバイスに適用できる。   Here, the primary correlation function is a mathematical expression represented by the above-described equation (1). By indicating the peak velocity as a three-dimensional vector, the present invention can be applied not only to a two-dimensional information terminal screen but also to a pointing device in a three-dimensional virtual space.

また、ターゲット予測位置から一定範囲に存在するオブジェクトとは、ターゲット予測位置から一定距離範囲内にあるアイコンなどのオブジェクトをいう。この一定距離を決定するパラメータは分解能に密接に影響するため可変パラメータとしている。   Further, the object existing within a certain range from the target predicted position refers to an object such as an icon within a certain distance range from the target predicted position. The parameter for determining the constant distance is a variable parameter because it affects the resolution closely.

また、一定範囲に存在するオブジェクト(アイコンなど)のうち1のオブジェクトを選択する方法は、例えば、ターゲット予測位置から最も近いオブジェクトを選択したり、また、使用頻度の高いものを選択したり、その時の状況やコンテキストに合ったオブジェクトを選択したりするなどの方法が考えられる。   In addition, as a method for selecting one object among objects (icons or the like) existing in a certain range, for example, an object closest to the target predicted position is selected, or an object that is frequently used is selected. It is possible to select an object suitable for the situation and context of the current situation.

本発明に係るポインティング操作システムの第2の観点によれば、前記第1の観点において、「ポインタ速度の極大値(ピーク速度)が検出される度にターゲット位置を予測するが、ポインタ速度の極大値(ピーク速度)を検出する手段において、複数の極大値が検出された場合に、2回目以降に検出した極大値がそれ以前の極大値より小さかった場合には、その値をピーク速度として採用しない」機能が提供される。   According to a second aspect of the pointing operation system according to the present invention, in the first aspect, “a target position is predicted every time a maximum value (peak speed) of a pointer speed is detected. When multiple maximum values are detected in the means for detecting the value (peak speed), if the maximum value detected after the second time is smaller than the previous maximum value, that value is used as the peak speed. A “no” feature is provided.

操作途中の最加速や手の震えなどにより複数の極大値が検出されると考えられるためである。   This is because it is considered that a plurality of maximum values are detected due to the maximum acceleration during the operation or the shaking of the hand.

本発明に係るポインティング操作システムの第3の観点によれば、前記第1および第2の観点において、「ピーク速度の時のポインタの速度ベクトルを画面上若しくは空間内のX軸方向とY軸方向とZ軸方向の成分にベクトル分解し、各方向毎にターゲットまでの距離を予測し、ターゲットの予測位置を算出する」機能が提供される。   According to a third aspect of the pointing operation system of the present invention, in the first and second aspects, the pointer velocity vector at the time of peak velocity is expressed in the X-axis direction and the Y-axis direction on the screen or in space. And a function of calculating a predicted position of the target by predicting a distance to the target in each direction.

素早くポインティングデバイスを操作している場合には、停止直前の移動方向はノイズが多くなり、ターゲットオブジェクトの方向と一致しない場合が多いことを考慮して、軸方向にポインタ速度成分を分解し、ピーク速度時におけるポインタ軌道の接線方向を移動方向と認識することにより、ターゲット予測位置のブレを最小限に抑えることとするものである。   When operating the pointing device quickly, the pointer velocity component is decomposed in the axial direction, taking into account that the direction of movement immediately before stopping is noisy and often does not match the direction of the target object. By recognizing the tangential direction of the pointer trajectory at the time of speed as the moving direction, the target predicted position is minimized.

本発明に係るポインティング操作システムの第4の観点によれば、前記第1から第3の観点において、「ターゲットの予測位置から一定範囲に存在するオブジェクトのうち1のオブジェクトを選択できた場合に、選択されたオブジェクトに応じたアプリケーションプログラムを自動的に起動する」機能が提供される。   According to a fourth aspect of the pointing operation system of the present invention, in the first to third aspects, “when one object among objects existing within a certain range from the predicted position of the target can be selected, A function of automatically starting an application program corresponding to the selected object is provided.

本発明に係るポインティング操作システムの第5の観点によれば、前記第1から第3の観点において、「ターゲットの予測位置から一定範囲に存在するオブジェクトのうち1のオブジェクトを選択できた場合に、選択されたオブジェクトの位置にポインタを自動的に移動させる」機能が提供される。   According to a fifth aspect of the pointing operation system of the present invention, in the first to third aspects, “when one object among objects existing within a certain range from the predicted position of the target can be selected, The function of automatically moving the pointer to the position of the selected object is provided.

本発明に係るポインティング操作システムの第6の観点によれば、前記第1から第3の観点において、「ターゲットの予測位置から一定範囲に存在するオブジェクトのうち1のオブジェクトを選択できた場合に、選択されたオブジェクトのアイコンの形態を変化させる」機能が提供される。   According to a sixth aspect of the pointing operation system of the present invention, in the first to third aspects, “when one object among objects existing in a certain range from the predicted position of the target can be selected, The function of “changing the icon form of the selected object” is provided.

本発明に係るポインティング操作システムの第7の観点によれば、前記第1の観点において、「ピーク速度からターゲットまでの距離を予測する際に、個々のユーザ毎にピーク速度からターゲットまでの距離を求める換算式の係数を、予め数回の試行によって決定する」キャリブレーション機能が提供される。   According to a seventh aspect of the pointing operation system according to the present invention, in the first aspect, when predicting the distance from the peak speed to the target, the distance from the peak speed to the target is determined for each individual user. A calibration function is provided in which the coefficient of the conversion formula to be obtained is determined in advance by several trials.

本発明に係るポインティング操作システムによれば、ユーザがポインタを移動させたいオブジェクトと現在のポインタ位置との距離が大きい場合においても、少ない回数のポインティングデバイス操作で十分であり、操作性が向上する。   According to the pointing operation system of the present invention, even when the distance between the object the user wants to move the pointer and the current pointer position is large, a small number of pointing device operations are sufficient, and the operability is improved.

また、本発明に係るポインティング操作システムによれば、ポインタを移動させたいオブジェクトが現在のポインタ位置の近くにある場合、通常、ポインティングデバイスを緩慢に操作することとなり、ピーク速度が小さくなり、ターゲット予測位置は近傍となるため、全く目的としていない離れたオブジェクトへポインタが移動してしまう可能性はなく、操作性が向上する。   Further, according to the pointing operation system according to the present invention, when the object to which the pointer is to be moved is near the current pointer position, the pointing device is normally operated slowly, the peak speed is reduced, and the target prediction is performed. Since the position is in the vicinity, there is no possibility that the pointer moves to a distant object that is not intended at all, and the operability is improved.

また、本発明に係るポインティング操作システムによれば、ユーザがポインタを移動させたいオブジェクトと現在のポインタ位置との間に別のオブジェクトが存在しても、オブジェクトの選択ができないということはない。また、速度プロファイルが完結する前に予測が行えるため、より迅速なポインティング操作に対応できる。   Further, according to the pointing operation system according to the present invention, even when another object exists between the object to which the user wants to move the pointer and the current pointer position, the object cannot be selected. Further, since the prediction can be performed before the speed profile is completed, it is possible to cope with a quicker pointing operation.

さらに、ポインティング操作のピーク時速度から直接ポインティング予想位置を算出できるため、あらかじめ速度プロファイルの関数群を用意しておく必要はない。   Furthermore, since the predicted pointing position can be calculated directly from the peak speed of the pointing operation, it is not necessary to prepare a function group of the speed profile in advance.

以下に本発明の実施形態を説明するが、本発明は特にこれらに限定されるものではない。   Embodiments of the present invention will be described below, but the present invention is not particularly limited thereto.

以下、情報端末装置の画面上のターゲット位置予測を用いたポインティング操作に関して、処理フロー図を示しながら詳細に説明する。通常、情報端末装置のGUI環境下では、代表的にはマウスで、画面上のポインタ操作を行っている。操作者はポインタの行き先ターゲットを確認しながら、そのターゲット位置にポインタを近づけるように操作する。   Hereinafter, a pointing operation using target position prediction on the screen of the information terminal device will be described in detail with reference to a processing flowchart. Usually, in the GUI environment of the information terminal device, a pointer operation on the screen is typically performed with a mouse. While confirming the destination target of the pointer, the operator operates to bring the pointer closer to the target position.

本発明者は、ポインティング操作において、ポインタ移動中のピーク速度とその時点でのターゲットまでの距離に相関があることを知見し、ピーク速度からターゲット位置を予測することで、ポインティング操作時間やターゲットのオブジェクトに対するアクション時間(例えば、アプリケーション・プログラムの起動時間)を短縮できるポインティング操作システムを完成した。   The present inventor has found that there is a correlation between the peak speed during the pointer movement and the distance to the target at that point in the pointing operation, and predicting the target position from the peak speed, the pointing operation time and the target A pointing operation system that can shorten the action time for an object (for example, the startup time of an application program) has been completed.

本実施例に係るポインティング操作システムは、2つのプロセスから構成されている。1つは時々刻々と変化するポインタの変化を検知するプロセスで、具体的には、10msで周期的にマウスの位置座標を読み取るプログラムである。また、もう1つは、周期的にターゲット位置予測アルゴリズム処理を行うプロセスで、具体的には、マウスの位置座標を読み取るプログラムより遅い周期、例えば、100msでターゲット位置予測アルゴリズム処理を行うプログラムである。   The pointing operation system according to the present embodiment is composed of two processes. One is a process of detecting a change in the pointer that changes from moment to moment. Specifically, the program reads the position coordinates of the mouse periodically in 10 ms. The other is a process that periodically performs target position prediction algorithm processing, specifically, a program that performs target position prediction algorithm processing at a slower period than a program that reads mouse position coordinates, for example, 100 ms. .

図1にターゲット位置予測のアルゴリズムを示す。ターゲット位置予測アルゴリズムは、時々刻々と変化するマウスポインタの位置座標から、ポインタのピーク速度を算出して、そのピーク速度からターゲットまでの距離を相関関数により算出し、ピーク速度を検出したときのポインタの座標および進行ベクトルから、ターゲット位置を予測している。   FIG. 1 shows an algorithm for target position prediction. The target position prediction algorithm calculates the peak velocity of the pointer from the position coordinates of the mouse pointer that changes from moment to moment, calculates the distance from the peak velocity to the target using a correlation function, and the pointer when the peak velocity is detected The target position is predicted from the coordinates and the progression vector.

ターゲット位置予測のアルゴリズムでは、初期化処理としてピーク速度を初期化して、図1の処理1〜4をポインティングタスク(ターゲット位置予測アルゴリズム処理を行うプログラム)が終了するまで周期的に繰り返す。ポインタのピーク速度検出処理1は、ピーク速度を検出し,ピーク速度,ピーク位置,ピーク方向を求めている。次に、ターゲット位置予測処理2は、求めたピーク速度,ピーク位置,ピーク方向からターゲット位置を予測している。そして、オブジェクト推定処理3は、ターゲット予測位置から一定範囲内の距離にあるオブジェクトの中でターゲット予測位置に最も近いオブジェクトをターゲットと推定している。また、オブジェクト選択処理4は、選択されたオブジェクトに対して、例えば、起動命令を実行する処理である。また、起動と同時に、若しくは起動は行わずに、選択されたオブジェクトのアイコンの形態を変化させることでもよい。   In the target position prediction algorithm, the peak speed is initialized as an initialization process, and the processes 1 to 4 in FIG. 1 are periodically repeated until the pointing task (program for performing the target position prediction algorithm process) is completed. Pointer peak speed detection processing 1 detects a peak speed and obtains a peak speed, a peak position, and a peak direction. Next, the target position prediction process 2 predicts the target position from the obtained peak speed, peak position, and peak direction. Then, the object estimation process 3 estimates an object closest to the target predicted position among the objects within a certain range from the target predicted position as a target. The object selection process 4 is a process for executing, for example, an activation command for the selected object. Also, the icon form of the selected object may be changed simultaneously with activation or without activation.

図2は、ポインティング操作システムのピーク速度検出処理のフローチャートを示している。以下、ピーク速度検出処理について説明する。ステップS201は、用いられる変数を初期化している。ステップS202は、マウス等のポインティングデバイスからのシグナルを検知することにより、ポインタが移動したか否かを判定している。ステップS203は、サブルーチン関数である現在位置( ),現在時刻( )を用いて、ポインタの位置と時刻を求め、それぞれ位置B,時刻Bとしている。これら、現在位置( ),現在時刻( )は、処理をおこなうコンピュータのOS(オペレーティングシステム)等により提供されるものである。ステップS204は、位置Aが初期値であれば、ステップS208により、位置B,時刻Bを位置A,時刻Aに代入する。そして、ステップS205で、位置Aと位置Bの2点間の座標から、位置Aを始点とし位置Bを終点とする局所方向を算出している。また、前回までのポインタの方向を平均方向とし、今回算出した局所方向とのベクトル和を算出して、それで平均方向の値を更新する。ステップS206では、位置A,位置B,時刻A,時刻Bからポインタの速度を算出し、それを速度Bに代入している。ステップS207では、この速度Bを、これまでに蓄えられているピーク速度の値(ピ速)と比較し、速度Bがピーク速度以上であれば、S209で速度B、位置B、平均方向をそれぞれ、ピーク速度(ピ速)、ピーク速度位置(ピ位)、ピーク速度方向(ピ方)に代入する。速度Bがこれまでに蓄えられているピーク速度の値(ピ速)よりも小さければ、このピーク速度検出処理を終了する。   FIG. 2 shows a flowchart of the peak speed detection process of the pointing operation system. Hereinafter, the peak speed detection process will be described. Step S201 initializes variables to be used. In step S202, it is determined whether or not the pointer has moved by detecting a signal from a pointing device such as a mouse. In step S203, the position and time of the pointer are obtained by using the current position () and the current time (), which are subroutine functions, and are set as position B and time B, respectively. These current position () and current time () are provided by the OS (operating system) of the computer that performs processing. In step S204, if the position A is an initial value, the position B and time B are substituted into the position A and time A in step S208. In step S205, a local direction starting from position A and ending at position B is calculated from the coordinates between the two positions A and B. Further, the direction of the pointer up to the previous time is set as the average direction, the vector sum with the local direction calculated this time is calculated, and the value of the average direction is updated accordingly. In step S206, the speed of the pointer is calculated from position A, position B, time A, and time B, and is substituted for speed B. In step S207, this speed B is compared with the peak speed value (pi speed) stored so far, and if the speed B is equal to or higher than the peak speed, the speed B, position B, and average direction are respectively determined in S209. , Peak speed (pi speed), peak speed position (pi position), and peak speed direction (pi direction) are substituted. If the speed B is smaller than the peak speed value (pi speed) stored so far, the peak speed detection process is terminated.

図3は、ターゲット位置を予測する処理のフローチャートを示している。ステップS301は、ピーク速度の大きさとその方向から、ピーク速度のX軸方向、Y軸方向、Z軸方向の各成分を算出している。ここで、コンピュータ情報端末の画面の場合は、二次元座標となるので、水平成分(X軸方向)と垂直成分(Y軸方向)を求めることになる。次に、ピーク速度とターゲットまでの距離の相関式を用いて、速度からターゲットまでの予測距離を求める。ここで、マウスなどのポインティング操作を人が行う場合に、画面上で垂直方向にマウスを操作する場合と、水平方向にマウスを操作する場合とでは、相関式(ターゲットまでの距離=a×ピーク速度+b)のパラメータ係数a,bの値が異なってくる。このため、相関式を用いて予測距離を求める場合に、ピーク速度のX軸方向成分とY軸方向成分とZ軸方向成分の速度に分けて、各々異なるパラメータ係数a,bの相関式を用いることとしている。図3のステップS302は、ピーク速度のX軸方向成分を数1に代入して、X軸方向のターゲットまでの予測距離を算出している。また、同様に、ピーク速度のY軸方向成分を数1に代入して、Y軸方向のターゲットまでの予測距離を算出し、ピーク速度のZ軸方向成分を数1に代入して、Z軸方向のターゲットまでの予測距離を算出している。そして、ステップS303で、ピーク速度を検出した時のポインタ座標と、XYZ軸方向のターゲットまでの予測距離からターゲット予測座標を算出するのである。   FIG. 3 shows a flowchart of processing for predicting the target position. In step S301, each component of the peak speed in the X-axis direction, Y-axis direction, and Z-axis direction is calculated from the magnitude and direction of the peak speed. Here, in the case of a screen of a computer information terminal, since it is a two-dimensional coordinate, a horizontal component (X-axis direction) and a vertical component (Y-axis direction) are obtained. Next, a predicted distance from the speed to the target is obtained using a correlation formula between the peak speed and the distance to the target. Here, when a pointing operation of a mouse or the like is performed by a person, a correlation formula (distance to target = a × peak) between the case where the mouse is operated vertically on the screen and the case where the mouse is operated horizontally. The values of the parameter coefficients a and b of the speed + b) are different. For this reason, when the predicted distance is obtained using the correlation equation, the correlation equations of the parameter coefficients a and b which are different from each other are used for the velocity of the peak velocity in the X-axis direction component, the Y-axis direction component and the Z-axis direction component. I am going to do that. In step S302 of FIG. 3, the predicted distance to the target in the X-axis direction is calculated by substituting the X-axis direction component of the peak velocity into Equation 1. Similarly, the Y axis direction component of the peak velocity is substituted into Equation 1, the predicted distance to the target in the Y axis direction is calculated, the Z axis direction component of the peak velocity is substituted into Equation 1, and the Z axis The predicted distance to the target in the direction is calculated. In step S303, the target predicted coordinates are calculated from the pointer coordinates when the peak speed is detected and the predicted distance to the target in the XYZ-axis directions.

図4は、オブジェクト推定の処理のフローチャートを示している。先ず、ステップS401で2つの変数(最短距離、ターゲット)を初期化している。ここで、最短距離は、予測位置から範囲内にある最も近いオブジェクトまでの距離を求めるための変数であり、またターゲットは、ターゲットと予測したオブジェクトのIDを求めるための変数である。ステップS403は、ターゲット予測位置座標と各オブジェクトの位置座標とから、ターゲット予測位置からオブジェクトまでの距離を算出している。ステップS404は、ターゲット予測位置からオブジェクトまでの距離が最短がどうかを判定するものである。ステップS405では、オブジェクトまでの距離が最短であった場合に、2つの変数である最短距離とターゲットの値を更新している。ここで、ステップS403からステップS405までは、ターゲット予測位置座標から一定距離範囲内に存在する全てのオブジェクトに対して行うべく繰り返し処理としている。   FIG. 4 shows a flowchart of the object estimation process. First, in step S401, two variables (shortest distance and target) are initialized. Here, the shortest distance is a variable for obtaining the distance from the predicted position to the nearest object in the range, and the target is a variable for obtaining the ID of the object predicted with the target. In step S403, the distance from the target predicted position to the object is calculated from the target predicted position coordinates and the position coordinates of each object. Step S404 determines whether the distance from the target predicted position to the object is the shortest. In step S405, when the distance to the object is the shortest, the two variables, the shortest distance and the target value, are updated. Here, steps S403 to S405 are repeated so as to be performed on all objects existing within a certain distance range from the target predicted position coordinates.

次に、相関式(ターゲットまでの距離=a×ピーク速度+b)のパラメータ係数a,bの値を求めるキャリブレーションについて説明する。図5は、キャリブレーションの処理のフローチャートを示している。パラメータ係数の値は、個人によっても操作環境によっても異なるものである。あらかじめターゲットを決めておき、そのターゲットを選択するつもりで操作者にマウスを操作してもらうことを数回繰り返して、各ピーク速度,各ピーク位置,各ピーク方向から回帰分析を行い,ピーク速度からターゲットまでの距離を予測する式を生成するものである。パラメータ係数a,bの決定に関しては、最小自乗法などを用いる。   Next, calibration for obtaining the values of the parameter coefficients a and b of the correlation equation (distance to target = a × peak speed + b) will be described. FIG. 5 shows a flowchart of the calibration process. The value of the parameter coefficient varies depending on the individual and the operating environment. Decide the target in advance and repeat the analysis from each peak speed, each peak position, and each peak direction by repeating the mouse operation several times to select the target. An expression for predicting the distance to the target is generated. For determining the parameter coefficients a and b, the least square method or the like is used.

下記の表1、表2には、図1〜図5の処理フローチャートの中で用いられている変数、サブルーチン関数をまとめている。   Tables 1 and 2 below summarize the variables and subroutine functions used in the processing flowcharts of FIGS.

Figure 2005352738
Figure 2005352738

Figure 2005352738
Figure 2005352738

本発明は、ピーク速度からターゲット位置を予測することを利用するインタフェースを提供し、情報処理装置画面の大画面化に伴うマウス等のポインティング操作システムや、バーチャルリアリティ(VR)上の3次元内の物体を操作するデバイス,3次元トラッカー,アイソトニックなデバイスなどに利用できる。   The present invention provides an interface that uses prediction of a target position from a peak velocity, a pointing operation system such as a mouse accompanying an increase in the screen size of an information processing apparatus, and a three-dimensional in virtual reality (VR). It can be used for devices that manipulate objects, 3D trackers, and isotonic devices.

本発明に係るポインティング操作システムのターゲット位置予測アルゴリズムを示している。2 shows a target position prediction algorithm of a pointing operation system according to the present invention. ピーク速度検出処理のフローチャートの一例を示す。An example of a flowchart of peak speed detection processing is shown. ターゲット位置予測処理のフローチャートの一例を示す。An example of the flowchart of a target position prediction process is shown. オブジェクト推定処理のフローチャートの一例を示す。An example of the flowchart of an object estimation process is shown. ポインティング操作システムのキャリブレーション処理のフローチャートを示す。3 shows a flowchart of a calibration process of the pointing operation system.

符号の説明Explanation of symbols

1 ポインタのピーク速度検出処理
2 ターゲット位置予測処理
3 オブジェクト推定処理
4 オブジェクト選択処理

1 Pointer peak speed detection process 2 Target position prediction process 3 Object estimation process 4 Object selection process

Claims (7)

情報端末装置の画面上でマウスなどのポインティングデバイスを操作してマウスカーソルなどのポインタを移動させる場合または仮想現実空間内で3次元トラッカーなどを操作してポインタを移動させる場合において、
前記ポインタ位置もしくはポインタ速度の情報を取り込み、
2)前記ポインタ速度が増加から減少に転じる点としてポインタ速度の極大値(ピーク速度)を検出し、
3)前記ピーク速度からターゲットまでの予測距離を1次相関関数によって算出し、
4)前記ターゲットまでの予測距離とピーク速度時のポインタ位置とポインタ移動方向からターゲット予測位置を算出し、
前記ターゲット予測位置から一定範囲に存在するオブジェクト(アイコンなど)のうち1のオブジェクトを選択できることを特徴とするポインティング操作システム。
When moving a pointer such as a mouse cursor by operating a pointing device such as a mouse on the screen of the information terminal device, or when moving a pointer by operating a three-dimensional tracker in a virtual reality space,
Capture the pointer position or pointer speed information,
2) The maximum value of the pointer speed (peak speed) is detected as the point at which the pointer speed turns from increasing to decreasing,
3) Calculate the predicted distance from the peak velocity to the target using a first order correlation function;
4) Calculate the target predicted position from the predicted distance to the target, the pointer position at the peak speed, and the pointer movement direction,
A pointing operation system capable of selecting one object among objects (such as icons) existing within a certain range from the target predicted position.
前記ポインタ速度の極大値(ピーク速度)が検出される度にターゲット位置を予測するが、前記ポインタ速度の極大値(ピーク速度)を検出する手段において、複数の極大値が検出された場合に、2回目以降に検出した極大値がそれ以前の極大値より小さかった場合には、その値をピーク速度として採用しないことを特徴とする前記請求項1記載のポインティング操作システム。   The target position is predicted every time when the maximum value (peak speed) of the pointer speed is detected. When a plurality of maximum values are detected in the means for detecting the maximum value (peak speed) of the pointer speed, 2. The pointing operation system according to claim 1, wherein when the maximum value detected after the second time is smaller than the previous maximum value, the value is not adopted as the peak speed. 前記ピーク速度の時のポインタの速度ベクトルを画面上若しくは空間内のX軸方向とY軸方向とZ軸方向の成分にベクトル分解し、各方向毎にターゲットまでの距離を予測し、ターゲットの予測位置を算出することを特徴とする前記請求項1および2記載のポインティング操作システム。   The vector of the velocity vector of the pointer at the peak velocity is decomposed into components in the X-axis direction, the Y-axis direction, and the Z-axis direction on the screen or in space, and the distance to the target is predicted for each direction, thereby predicting the target. 3. The pointing operation system according to claim 1, wherein a position is calculated. 前記ターゲットの予測位置から一定範囲に存在するオブジェクトのうち1のオブジェクトを選択できた場合に、選択されたオブジェクトに応じたアプリケーションプログラムを自動的に起動することを特徴とする前記請求項1乃至3記載のポインティング操作システム。   4. The application program according to the selected object is automatically started when one of the objects existing within a certain range from the predicted position of the target can be selected. The pointing operation system described. 前記ターゲットの予測位置から一定範囲に存在するオブジェクトのうち1のオブジェクトを選択できた場合に、選択されたオブジェクトの位置にポインタを自動的に移動させることを特徴とする前記請求項1乃至3記載のポインティング操作システム。   The pointer is automatically moved to the position of the selected object when one of the objects existing within a certain range from the predicted position of the target can be selected. Pointing operation system. 前記ターゲットの予測位置から一定範囲に存在するオブジェクトのうち1のオブジェクトを選択できた場合に、選択されたオブジェクトのアイコンの形態を変化させることを特徴とする前記請求項1乃至3記載のポインティング操作システム。   4. The pointing operation according to claim 1, wherein when one object among objects existing within a certain range from the predicted position of the target can be selected, the icon form of the selected object is changed. system. 前記ピーク速度からターゲットまでの距離を予測する場合において、個々のユーザ毎にピーク速度からターゲットまでの距離を求める換算式の係数を、予め数回の試行によって決定するキャリブレーション機能を有することを特徴とする前記請求項1記載のポインティング操作システム。
In the case of predicting the distance from the peak speed to the target, it has a calibration function for determining the coefficient of the conversion formula for obtaining the distance from the peak speed to the target for each individual user in advance by several trials. The pointing operation system according to claim 1.
JP2004172321A 2004-06-10 2004-06-10 Pointing operation system using target position prediction Pending JP2005352738A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004172321A JP2005352738A (en) 2004-06-10 2004-06-10 Pointing operation system using target position prediction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004172321A JP2005352738A (en) 2004-06-10 2004-06-10 Pointing operation system using target position prediction

Publications (1)

Publication Number Publication Date
JP2005352738A true JP2005352738A (en) 2005-12-22

Family

ID=35587175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004172321A Pending JP2005352738A (en) 2004-06-10 2004-06-10 Pointing operation system using target position prediction

Country Status (1)

Country Link
JP (1) JP2005352738A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097552A (en) * 2008-10-20 2010-04-30 Nec Corp Icon display device, icon display method and program
JP2012108842A (en) * 2010-11-19 2012-06-07 Konica Minolta Holdings Inc Display system, display processing device, display method, and display program
JP2012137972A (en) * 2010-12-27 2012-07-19 Kyocera Corp Electronic device
JP2012141913A (en) * 2011-01-06 2012-07-26 Alps Electric Co Ltd Inner force sense application type input device
KR101458273B1 (en) 2012-08-03 2014-11-12 한국과학기술원 Method for selecting object by utilizing tendency of recent cursor movements and control system for the same
JP2015092342A (en) * 2010-06-30 2015-05-14 トレーディング テクノロジーズ インターナショナル インコーポレイテッド Method and apparatus for motion based target prediction and interaction
US9672563B2 (en) 2010-06-30 2017-06-06 Trading Technologies International, Inc. Order entry actions
CN111289001A (en) * 2018-12-10 2020-06-16 阿里巴巴集团控股有限公司 Navigation method and device and electronic equipment

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097552A (en) * 2008-10-20 2010-04-30 Nec Corp Icon display device, icon display method and program
US10521860B2 (en) 2010-06-30 2019-12-31 Trading Technologies International, Inc. Order entry actions
US9830655B2 (en) 2010-06-30 2017-11-28 Trading Technologies International, Inc. Method and apparatus for motion based target prediction and interaction
US11908015B2 (en) 2010-06-30 2024-02-20 Trading Technologies International, Inc. Order entry actions
US11416938B2 (en) 2010-06-30 2022-08-16 Trading Technologies International, Inc. Order entry actions
JP2015092342A (en) * 2010-06-30 2015-05-14 トレーディング テクノロジーズ インターナショナル インコーポレイテッド Method and apparatus for motion based target prediction and interaction
JP2016129055A (en) * 2010-06-30 2016-07-14 トレーディング テクノロジーズ インターナショナル インコーポレイテッド Method and apparatus for motion-based target prediction and interaction
US9672563B2 (en) 2010-06-30 2017-06-06 Trading Technologies International, Inc. Order entry actions
US10902517B2 (en) 2010-06-30 2021-01-26 Trading Technologies International, Inc. Order entry actions
JP2012108842A (en) * 2010-11-19 2012-06-07 Konica Minolta Holdings Inc Display system, display processing device, display method, and display program
JP2012137972A (en) * 2010-12-27 2012-07-19 Kyocera Corp Electronic device
JP2012141913A (en) * 2011-01-06 2012-07-26 Alps Electric Co Ltd Inner force sense application type input device
KR101458273B1 (en) 2012-08-03 2014-11-12 한국과학기술원 Method for selecting object by utilizing tendency of recent cursor movements and control system for the same
CN111289001A (en) * 2018-12-10 2020-06-16 阿里巴巴集团控股有限公司 Navigation method and device and electronic equipment
CN111289001B (en) * 2018-12-10 2023-10-20 阿里巴巴集团控股有限公司 Navigation method and device and electronic equipment

Similar Documents

Publication Publication Date Title
KR100827243B1 (en) Information input device and method for inputting information in 3d space
JP4375320B2 (en) Mobile robot
JP5001101B2 (en) Mobile robot posture estimation apparatus and method
TWI543069B (en) Electronic apparatus and drawing method and computer products thereof
JP5213183B2 (en) Robot control system and robot control program
CN112150551A (en) Object pose acquisition method and device and electronic equipment
KR20110095144A (en) Information processing apparatus, imformation processing method, and program
JP2016521894A (en) System and method for performing device actions based on detected gestures
JP2013045217A (en) Input device
JP6563596B2 (en) Image processing apparatus, image processing method, and program
JP2011054165A (en) Gesture recognition method for interactive system, and the interactive system
JP2012027515A (en) Input method and input device
JP2005352738A (en) Pointing operation system using target position prediction
JP2014238727A (en) Information processing apparatus and information processing method
US8621370B2 (en) Batch processing information processing including simultaneously moving a plurality of objects and independently moving an object from the rest of the plurality of objects
JP2012022458A (en) Information processing apparatus and control method thereof
JP6240135B2 (en) Image processing apparatus, image processing method, and program
JP2009265835A (en) Image display, image display method and program
JP2011154613A (en) Programmable display and display method thereof
JP2017027311A5 (en)
JP2013109538A (en) Input method and device
JP2013167938A (en) Information input device
CN105302305A (en) Gesture control method and system
US11327575B2 (en) Methods and systems for positioning and controlling sound images in three-dimensional space
US10073600B1 (en) Selecting large and small entities on a computer display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100105