JPH0728591A - Space manipulation mouse system and space operation pattern input method - Google Patents

Space manipulation mouse system and space operation pattern input method

Info

Publication number
JPH0728591A
JPH0728591A JP10022994A JP10022994A JPH0728591A JP H0728591 A JPH0728591 A JP H0728591A JP 10022994 A JP10022994 A JP 10022994A JP 10022994 A JP10022994 A JP 10022994A JP H0728591 A JPH0728591 A JP H0728591A
Authority
JP
Japan
Prior art keywords
motion
spatial
mouse
pattern
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10022994A
Other languages
Japanese (ja)
Inventor
Yuji Ide
祐二 井手
Kazuhiro Takashima
和宏 高島
Toshihiro Morohoshi
利弘 諸星
Tomiyoshi Fukumoto
富義 福元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10022994A priority Critical patent/JPH0728591A/en
Publication of JPH0728591A publication Critical patent/JPH0728591A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To recognize the space operation pattern of an operator by providing a space manipulation mouse with a motion signal generation means which detects the motion of the space manipulation mouse from the acceleration or the angular velocity in the two-dimensional direction or three-dimensional direction. CONSTITUTION:The operator moves a space manipulation mouse 1 on the virtual plane without using the reference surface as desks and grid reflection boards. The motion of the mouse 1 can be detected by being resolved into the horizontal and virtical directions based on the work of a horizontal motion detection element 3 and a virtical motion detection element 3 which are constructed by using piezoelectric elements. The detected two-directional motions, for example, the acceleration and angular velocity are converted into the space manipulation mouse or the signal representing the movement distance by motion detection parts 16a and 16b at the output. A transmission part 18 performs the required processing on the two motion signals and drives infrared ray emitting elements 5 and 6 to send it to the equipments to be controlled.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、コンピュータやマルチ
メディア機器等で用いられる入力装置に関し、特に操作
性の良いマン・マシンインターフェイス環境を提供する
ための空間操作マウス(mouse)等の3次元入力装
置に関する。さらには、3次元入力装置を利用して、操
作者の動作パターンによる拡張された入力機能を実現す
る空間動作パターン入力システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input device used in a computer, a multimedia device or the like, and particularly to a three-dimensional input such as a space operation mouse for providing a man-machine interface environment with good operability. Regarding the device. Further, the present invention relates to a spatial motion pattern input system that uses a three-dimensional input device to realize an expanded input function according to a motion pattern of an operator.

【0002】[0002]

【従来の技術】コンピュータや、コンピュータを利用す
る各種システムに用いられる、マン・マシンインターフ
ェイス上の入力機器として、昨今では、いわゆるマウス
と呼ばれるポインティング・デバイスが広く使われてき
ている。
2. Description of the Related Art In recent years, a pointing device called a mouse has been widely used as an input device on a man-machine interface used in a computer and various systems using the computer.

【0003】このマウスを用いたシステムでは、まず、
操作者は、マウスを机上等で動かすことにより、表示画
面上に表示された上記マウスに連動して動くカーソル
を、表示画面上に表示されている所望の対象物(画像、
文字等)上に移動させる。そして、表示画面上で、選択
したい対象物上にカーソルが位置されている状態で、マ
ウスのクリックボタンと呼ばれる確認用のスイッチを押
す(あるいは放す)ことによって、システムに対する入
力を行う。このように、マウスによって、キーボードに
はなかった良好な操作性が提供される。
In the system using this mouse, first,
The operator moves the mouse on a desk or the like to move a cursor that is interlocked with the mouse displayed on the display screen to display a desired object (image,
Move it up). Then, while the cursor is positioned on the object to be selected on the display screen, a confirmation switch called a click button of the mouse is pressed (or released) to make an input to the system. In this way, the mouse provides good operability not found in the keyboard.

【0004】しかしながら、従来のマウスは、専用の操
作板などの操作面に接触させて動かす必要があること
と、加えてコンピュータとマウスとの間に接続ケーブル
が存在することから、操作性に多大な支障を与えてい
た。すなわち、操作者は、任意の空間あるいは任意の仮
想的な平面上で、マウスと、コンピュータなどの制御対
象機器との距離を自由にとって、ポインティング操作を
することはできなかった。
However, the conventional mouse requires a large amount of operability because it is necessary to move the mouse by bringing it into contact with an operation surface such as a dedicated operation plate, and in addition, since there is a connection cable between the computer and the mouse. Was hindering me. That is, the operator cannot perform a pointing operation by freely setting the distance between the mouse and the control target device such as a computer in an arbitrary space or an arbitrary virtual plane.

【0005】さらには、マウスの動きは前述の操作面に
拘束されるため、マウスは平面上の動きしか検出するこ
とができず、空間的な動きを検出することはできなかっ
た。それゆえ、空間的なマウスの動きを反映したポイン
ティング操作をすることは困難であった。
Further, since the movement of the mouse is restricted by the above-mentioned operation surface, the mouse can detect only the movement on the plane, and cannot detect the spatial movement. Therefore, it is difficult to perform the pointing operation that reflects the spatial movement of the mouse.

【0006】このような事情が考慮され、最近では、操
作者の3次元的な動きをとらえることにより、任意の平
面でのポインタ動作、さらには空間的なポインタ動作を
可能とし、コンピュータやマルチメディア機器あるいは
その表示装置から離れていても手軽にポインタ動作をす
ることを可能にする、空間操作マウスのような3次元入
力装置(特開平3−192423)が出現してきた。
In consideration of such a situation, recently, by capturing the three-dimensional movement of the operator, it is possible to perform a pointer operation on an arbitrary plane, and further a spatial pointer operation, so that a computer or a multimedia can be operated. A three-dimensional input device (Japanese Patent Laid-Open No. 3-192423), such as a spatial operation mouse, has emerged which enables a pointer operation easily even when the device or its display device is remote.

【0007】しかしながら、上記3次元入力装置を用い
たシステムでは、「操作者が、3次元入力装置を空間で
動かすことにより、表示画面上を3次元入力装置に連動
して動くカーソルを、表示されている所望の対象物上に
移動させ、その後クリックボタンを押す(あるいは放
す)ことによって、確認あるいは選択を行う」というよ
うなポインティング操作が主に提供されているだけであ
る。
However, in the system using the above-mentioned three-dimensional input device, "When the operator moves the three-dimensional input device in space, a cursor that is interlocked with the three-dimensional input device is displayed on the display screen. A pointing operation such as "confirmation or selection is performed by moving the object to a desired object, and then pressing (or releasing) the click button" is mainly provided.

【0008】一方、従来のマウスを操作面上で動かし
て、所定のパターンを描くことによって、各パターンに
対応付けられた機能を実行させることのできるシステム
が提案されている(特開平4−7726、特開平4−1
80119)。
On the other hand, there has been proposed a system which can execute a function associated with each pattern by moving a conventional mouse on an operation surface to draw a predetermined pattern (Japanese Patent Laid-Open No. 4-7726). Japanese Patent Laid-Open No. 4-1
80119).

【0009】しかしながら、これらシステムでは、マウ
スを操作面上で動かす必要があることから、単純なパタ
ーンしか使用できないという制約がある。また、操作面
上に所定のパターンをきれいに描くことは案外難しく、
パターン・マッチング法では、操作者の描いたパターン
を認識しきれない問題があった。
However, in these systems, since the mouse needs to be moved on the operation surface, there is a restriction that only simple patterns can be used. Also, it is unexpectedly difficult to draw a predetermined pattern neatly on the operation surface,
The pattern matching method has a problem in that the pattern drawn by the operator cannot be recognized.

【0010】[0010]

【発明が解決しようとする課題】以上のように、従来の
マウスを用いたシステムでは、3次元の動きを検出でき
るようにして、単に専用の操作板等を不要とする改善に
止まっていた。
As described above, in the conventional system using the mouse, it is possible to detect the three-dimensional movement, and only the improvement such that the dedicated operation plate is unnecessary.

【0011】また、ポインティング・デバイスとしての
機能以外に極簡単なパターン入力機能を付加したマウス
としては、ごく限られたパターン入力機能を専用の操作
板等を要する(2次元)マウスに与えたものがあるに止
まっていた。
As a mouse to which a very simple pattern input function is added in addition to the function as a pointing device, a very limited pattern input function is given to a (two-dimensional) mouse requiring a dedicated operation plate or the like. It was still there.

【0012】本発明は、上記事情を考慮してなされたも
ので、任意の仮想平面でのポインタ動作、さらには空間
的なポインタ動作を可能とした、空間操作マウスのよう
な3次元入力装置を用いる入力システムにおいて、操作
者の空間での空間動作パターンを認識し、コンピュータ
やマルチメディア機器に対して空間動作パターンに応じ
た内容の制御を実行できる、すなわち感覚的なマン・マ
シンインタフェイス環境を提供できる、空間動作パター
ン入力システムを提供することを目的とする。
The present invention has been made in consideration of the above circumstances, and provides a three-dimensional input device such as a spatial operation mouse that enables a pointer operation on an arbitrary virtual plane and further a spatial pointer operation. In the input system to be used, it is possible to recognize the spatial motion pattern of the operator's space and execute the control of the contents according to the spatial motion pattern to the computer or multimedia device, that is, a sensible man-machine interface environment. An object is to provide a spatial motion pattern input system that can be provided.

【0013】[0013]

【課題を解決するための手段】本発明に係る空間操作マ
ウスシステムでは、操作空間での所定の3つの軸方向の
速度若しくは加速度又は3つの軸の回りの角速度若しく
は角加速度のうちの少なくとも1つを検出し、当該検出
された1つあるいは複数の量をそのままあるいは関連す
る量に変換して動き信号として出力するための動き信号
生成手段と、この動き信号生成手段により与えられた前
記動き信号を含む前記制御信号を送信するための送信手
段とを有する空間操作マウスと、前記空間操作マウスの
前記送信手段により送信された制御信号を受信するため
の受信手段と、この受信手段により得られた制御信号に
基づいて、表示画面上のカーソルまたは表示オブジェク
トを変化させ、前記空間操作マウスの操作者の指示位置
を表示し、あるいは前記動き信号に従い表示画面を変化
させる表示手段とを有する制御対象機器とを具備してな
ることを特徴とする。
In the space operation mouse system according to the present invention, at least one of the speed or acceleration in the predetermined three axial directions in the operation space or the angular speed or the angular acceleration around the three axes. And a motion signal generating means for converting the detected one or more quantities as they are or as related quantities to output as a motion signal, and the motion signal given by this motion signal generating means. A spatial operation mouse having a transmitting means for transmitting the control signal, a receiving means for receiving the control signal transmitted by the transmitting means of the spatial operating mouse, and a control obtained by the receiving means Based on the signal, the cursor or the display object on the display screen is changed to display the position indicated by the operator of the spatial operation mouse. And characterized by being provided with a control target device and a display means for changing a display screen in accordance with the motion signal.

【0014】また、本発明に係る空間操作マウスを用い
た空間動作パターン入力方法では、操作者により与えら
れる3次元空間における直線的、平面的あるいは空間的
な動作を、その操作空間における所定の3つの軸方向の
速度若しくは加速度又は3つの軸の回りの角速度若しく
は角加速度のうちの少なくとも2つの量として検出する
検出ステップと、当該検出された少なくとも2つの検出
量を、当該動作をパターン化した動作パターンデータに
変換する変換ステップと、当該動作パターンデータと、
予め登録されている複数の基本動作パターンに関連する
基本データとを比較する比較ステップと、前記比較ステ
ップにおける比較結果に基づいて当該動作パターンを識
別する識別ステップと、前記識別ステップにおける識別
結果に基づいて当該動作パターンに対応する所定の制御
を行う制御ステップとを含むことを特徴とする。
Further, in the spatial motion pattern input method using the spatial manipulation mouse according to the present invention, the linear, planar or spatial motion in the three-dimensional space given by the operator is converted into the predetermined three motions in the manipulation space. A detection step of detecting at least two amounts of velocity or acceleration in one axial direction or angular velocity or angular acceleration around three axes, and an action in which the detected at least two detected amounts are patterned. A conversion step of converting to pattern data, the operation pattern data,
A comparison step of comparing with basic data related to a plurality of basic operation patterns registered in advance, an identification step of identifying the operation pattern based on the comparison result in the comparison step, and an identification result in the identification step And a control step of performing a predetermined control corresponding to the operation pattern.

【0015】一方、本発明では、空間操作型入力装置の
空間動作パターンに応じた内容の制御を制御対象機器に
実行させるための空間動作パターン入力方法において、
空間操作型入力装置の空間における互いに平行でない所
定の3軸方向の動作量のうち少なくとも2軸方向の動作
量を検出する動作検出ステップと、前記動作検出ステッ
プにおいて検出された少なくとも2つの検出量からなる
当該空間動作量を動作ベクトル列に変換する変換ステッ
プと、予め登録されている基本動作パターンに対応した
動作ベクトル列と当該動作ベクトル列とを比較して識別
を行う識別ステップと、前記識別ステップにおける認識
結果に基づく制御を制御対象機器に対して実行する実行
ステップとを有することを特徴とする。
On the other hand, according to the present invention, in the spatial operation pattern input method for causing the controlled device to execute the control of the content according to the spatial operation pattern of the spatial operation type input device,
From a motion detection step of detecting a motion amount in at least two axis directions out of motion amounts in predetermined three axis directions which are not parallel to each other in the space of the space operation type input device, and from at least two detection amounts detected in the motion detection step. A conversion step of converting the spatial motion amount into a motion vector sequence, an identification step of performing identification by comparing the motion vector sequence corresponding to a pre-registered basic motion pattern with the motion vector sequence, and the identification step. And an execution step of executing control based on the recognition result in step 1) on the device to be controlled.

【0016】また、好ましくは、前記識別ステップは、
空間操作型入力装置の動作量から得られた動作ベクトル
列を基にした単位ベクトル関数および空間操作型入力装
置の動作量から得られた動作ベクトル列を基にした累積
ベクトル関数の少なくとも一方を生成するベクトル関数
生成ステップと、生成した単位ベクトル関数および累積
ベクトル関数の少なくとも一方を、基本動作パターン動
作に対応した動作ベクトル列から得られるものと比較
し、この比較結果に基づいて空間操作型入力装置の空間
動作パターンの識別を行う識別ステップとを含むことを
特徴とする。
Also preferably, the identifying step comprises
Generate at least one of a unit vector function based on a motion vector sequence obtained from the motion amount of the spatial operation type input device and a cumulative vector function based on a motion vector sequence obtained from the motion amount of the spatial operation type input device The vector operation generating step for performing at least one of the generated unit vector function and the cumulative vector function is compared with that obtained from the motion vector sequence corresponding to the basic motion pattern motion, and the spatial operation type input device is based on the comparison result. And an identifying step of identifying the spatial motion pattern of.

【0017】また、好ましくは、前記変換ステップは、
空間動作量に対して単位ベクトルの個数と角度を登録し
た変換テーブルに対して、前記動作検出ステップにおい
て検出された少なくとも2つの検出量からなる当該空間
動作量を時間的にサンプリングした値を逐次指定値とし
て与えることによって、当該空間動作量を動作ベクトル
列に変換した結果を得ることを特徴とする。
Further, preferably, the conversion step is
For the conversion table in which the number of unit vectors and the angle are registered for the spatial motion amount, a value obtained by temporally sampling the spatial motion amount including at least two detection amounts detected in the motion detection step is sequentially specified. It is characterized in that the result of converting the spatial motion amount into a motion vector sequence is obtained by giving it as a value.

【0018】また、好ましくは、前記動作検出ステップ
は、前記空間操作型入力装置の動作量を検出する2軸方
向ごとに、これに直行する方向の軸回りの回転動作量を
検出する回転動作量検出ステップをさらに有し、前記変
換ステップは、前記回転動作量検出ステップでの検出結
果に基づき、前記動作検出ステップで検出された関連す
る前記空間操作型入力装置の2軸方向の動作量から上記
軸回りの回転動作量を取り除いた動作量を抽出する補正
ステップをさらに有することを特徴とする。
Further, preferably, in the operation detecting step, a rotational operation amount for detecting a rotational operation amount about an axis in a direction orthogonal to each of two axial directions for detecting an operation amount of the spatial operation type input device. The method further comprises a detection step, and the conversion step is based on the detection result of the rotational movement amount detection step and is based on the movement amount in the two axial directions of the related spatial operation type input device detected in the movement detection step. It is characterized by further comprising a correction step of extracting a motion amount excluding a rotation motion amount about the axis.

【0019】また、好ましくは、前記実行ステップは、
前記識別ステップにおいて認識された空間動作パターン
の形状を表示画面に表示することを特徴とする。
[0019] Preferably, the execution step is
The shape of the spatial motion pattern recognized in the identifying step is displayed on a display screen.

【0020】[0020]

【作用】本発明では、空間操作マウスに2次元方向また
は3次元方向の加速度または角速度から空間操作マウス
の動きを検出する動き信号生成手段を設けた。このため
に、任意の操作空間での操作者の意図する平面的動作や
空間的動作を検出することができ、従って、空間操作マ
ウスを、コンピュータのポインタとして、あるいは離れ
た場所から見る大画面映像システムやマルチメディア機
器のリモコン装置として用いて、手軽にポインタ操作や
制御操作ができる。
In the present invention, the spatial operation mouse is provided with the motion signal generating means for detecting the movement of the spatial operation mouse from the acceleration or the angular velocity in the two-dimensional direction or the three-dimensional direction. For this reason, it is possible to detect the operator's intended planar movement or spatial movement in an arbitrary operating space, and therefore, the large-screen image can be viewed by the spatial operation mouse as a computer pointer or from a distance. It can be used as a remote control device for systems and multimedia equipment to easily perform pointer operations and control operations.

【0021】それゆえ、本発明の空間操作マウスを用い
た空間操作マウスシステムでは、制御対象機器の表示画
面上のカーソルまたは表示オブジェクトの変化により操
作者の指示位置を表示したり、表示画面の方向を変化さ
せることで、従来にない操作性の向上されたヒューマン
インターフェイス環境を実現できる。
Therefore, in the space operation mouse system using the space operation mouse of the present invention, the position pointed by the operator is displayed or the direction of the display screen is displayed by the change of the cursor or the display object on the display screen of the controlled device. By changing the, it is possible to realize a human interface environment with improved operability that has never existed before.

【0022】また、本発明に係る空間動作パターン入力
方法では、予め操作者の基本動作パターンを登録してお
き、空間操作マウスを操作して入力された動作パターン
を識別し、各動作パターンに対応する制御を実行する。
従って、人間の自然な動作を用いて、制御対象機器を制
御することが可能となる。
Further, in the spatial motion pattern input method according to the present invention, the basic motion pattern of the operator is registered in advance, and the motion pattern input by operating the spatial operation mouse is identified to correspond to each motion pattern. To execute the control.
Therefore, it is possible to control the control target device by using a natural human motion.

【0023】一方、本発明に係る空間動作パターン入力
方法では、予め操作者の基本動作パターンを登録してお
くとともに、操作者が空間操作マウス(空間操作型入力
装置)を操作することにより入力された空間動作パター
ンの動きを検出して動作ベクトル列に変換し、予め登録
されている基本動作パターンに対応した動作ベクトル列
と当該動作ベクトル列とを比較して識別を行い、この認
識結果に基づく制御を制御対象機器に対して実行する。
On the other hand, in the spatial motion pattern input method according to the present invention, the basic motion pattern of the operator is registered in advance, and the operator operates the spatial operation mouse (spatial operation type input device) to input it. The motion of the spatial motion pattern is detected and converted into a motion vector sequence, and the motion vector sequence corresponding to the pre-registered basic motion pattern is compared with the motion vector sequence for identification, and based on the recognition result. Executes control for controlled devices.

【0024】このように、基準位置(原点)に対する空
間操作マウスの空間座標を測定しなくても、空間操作マ
ウスの動きを動作ベクトルを用いて時系列の微小基準ベ
クトル集合として相対的に得ることによって、動作パタ
ーン入力を行うことができる。また、本発明では、従来
のパターンマッチング法ではなく、動きを動作ベクトル
列に分解して基本動作パターンと比較するので、空間で
の不安定なマウスの操作から得られる動作パターンを高
精度に認識することが可能となる。
As described above, the movement of the spatial operation mouse is relatively obtained as a time-series small reference vector set by using the motion vector without measuring the spatial coordinates of the spatial operation mouse with respect to the reference position (origin). Can input an operation pattern. Further, in the present invention, instead of the conventional pattern matching method, the motion is decomposed into a motion vector sequence and compared with the basic motion pattern, so that the motion pattern obtained from an unstable mouse operation in space is recognized with high accuracy. It becomes possible to do.

【0025】従って、本発明によれば、人間の自然な動
作を用いて、制御対象機器を制御することが可能とな
る。
Therefore, according to the present invention, it becomes possible to control the device to be controlled by using a natural human motion.

【0026】[0026]

【実施例】以下、図面を参照しながら本発明の実施例を
説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0027】図1に、本発明の第1の実施例に係る空間
操作マウスの概観図を、図2に空間操作マウスの概略ブ
ロック図を示す。ここで、本明細書では、水平方向とは
図1の矢印28のように空間操作マウスからみて左右の
方向をいい、垂直方向とは矢印29のようにマウスから
みて上下の方向を言うものとする。
FIG. 1 is a schematic view of a spatial operation mouse according to the first embodiment of the present invention, and FIG. 2 is a schematic block diagram of the spatial operation mouse. Here, in this specification, the horizontal direction means the left and right direction as seen from the spatial operation mouse as indicated by the arrow 28 in FIG. 1, and the vertical direction means the up and down direction as seen from the mouse as indicated by the arrow 29. To do.

【0028】本発明の空間操作マウスは、水平方向の動
きを検出するための第1動き検出部16aと、垂直方向
の動きを検出するための第2動き検出部16bと、操作
者がクリック動作をするためのスイッチ部17と、第1
動き検出部16aからの出力信号、第2動き検出部16
bからの出力信号およびスイッチ部17からの出力信号
を制御対象機器に対して伝送するための送信部18を備
える。
The spatial operation mouse of the present invention has a first movement detecting section 16a for detecting a horizontal movement, a second movement detecting section 16b for detecting a vertical movement, and a click operation by the operator. Switch unit 17 for switching
Output signal from the motion detector 16a, second motion detector 16
The transmitter 18 is provided for transmitting the output signal from the switch b and the output signal from the switch 17 to the control target device.

【0029】第1動き検出部16aは、水平方向の動き
を検出する水平方向動き検出素子2を含む。第2動き検
出部16bは、垂直方向の動きを検出する垂直方向動き
検出素子3を含む。スイッチ部17は、クリックボタン
4を含む。送信部18は、赤外線発光素子5,6を含
む。
The first motion detector 16a includes a horizontal motion detecting element 2 for detecting a horizontal motion. The second motion detector 16b includes a vertical motion detector 3 that detects a vertical motion. The switch unit 17 includes the click button 4. The transmitter 18 includes infrared light emitting elements 5 and 6.

【0030】操作者は、空間操作マウス本体1を握り、
任意の空間において、空間操作マウス本体1を上下左右
に動かして操作する。すなわち、操作者は、机や格子反
射板のような実在する基準面を用いずに、仮想的な平面
上において、空間操作マウス本体1の移動操作を行う。
空間操作マウス本体1の動きは、圧電素子等を用いて構
成された水平方向動き検出素子2および垂直方向動き検
出素子3の働きにより、水平(左右)および垂直(上
下)の2方向の動きに分解して検出される。検出された
2方向の動き、例えば加速度や角速度は、動き検出部1
6a,16bによって、所定の動き信号、例えば空間操
作マウスの速度あるいは移動距離等を表す信号に変換さ
れて出力される。あるいは、加速度や角速度などそのま
まの形で出力される。送信部18は、この2つの動き信
号に対して、必要な処理、例えばフォーマット変換、符
号化、多重化、変調等を施す。その後、送信部18は、
赤外線発光素子5,6を駆動して、この信号を制御対象
機器まで伝送する。
The operator holds the space operation mouse body 1 and
In any space, the space operation mouse body 1 is moved vertically and horizontally to operate. That is, the operator performs the moving operation of the spatial operation mouse body 1 on a virtual plane without using an existing reference surface such as a desk or a grating reflector.
The movement of the spatial operation mouse body 1 is changed to two directions of horizontal (left and right) and vertical (up and down) by the action of the horizontal direction motion detection element 2 and the vertical direction motion detection element 3 which are configured by using a piezoelectric element or the like. Disassembled and detected. The detected two-direction movements, such as acceleration and angular velocity, are detected by the movement detecting unit 1.
The signals 6a and 16b are converted into a predetermined motion signal, for example, a signal representing the speed or movement distance of the spatial operation mouse, and output. Alternatively, the acceleration and the angular velocity are output as they are. The transmission unit 18 performs necessary processing, such as format conversion, encoding, multiplexing, and modulation, on these two motion signals. After that, the transmitter 18
The infrared light emitting elements 5 and 6 are driven to transmit this signal to the control target device.

【0031】操作者は、このような空間操作マウスを用
いて、表示画面上のカーソルの位置を操作するととも
に、操作する前および/または操作した後に、スイッチ
部17のクリックボタン4を押す(あるいは放す)。送
信部18は、クリックボタン4が押されたこと(あるい
は放されたこと)を、制御対象機器に伝える。動き信号
やクリック動作を示す信号を受けた制御対象機器は、こ
れら信号に応じた所定の制御動作を実行する。
The operator operates the position of the cursor on the display screen by using such a spatial operation mouse, and presses the click button 4 of the switch section 17 before and / or after the operation (or Let go). The transmission unit 18 notifies the control target device that the click button 4 has been pressed (or released). The device to be controlled, which has received the motion signal and the signal indicating the click operation, executes a predetermined control operation according to the signal.

【0032】発光素子5は右側の空間に、発光素子6は
左側の空間に、赤外線を放射するようにすると、すなわ
ち両素子に異なる指向性を割り当てると、赤外線の放射
範囲が広角になるので好ましい。特に任意の空間で操作
する空間操作マウスでは、操作者が空間操作マウスを左
右に振っても、赤外線を制御対象機器に確実に伝送する
ことができる。もちろん、この発光素子の個数は、アプ
リケーションに応じて、1つでも、3つ以上でも良い。
It is preferable that the light emitting element 5 emits infrared rays to the right space and the light emitting element 6 emits infrared rays to the left space, that is, if different directivities are assigned to both elements, the infrared radiation range becomes wide. . Particularly in the case of the space operation mouse operated in an arbitrary space, even if the operator shakes the space operation mouse to the left or right, infrared rays can be reliably transmitted to the control target device. Of course, the number of the light emitting elements may be one or three or more depending on the application.

【0033】図1の実施例では、空間操作マウスに、垂
直および水平方向の2軸方向の動きを検出する動き検出
素子を設けた。その代りに、上記垂直および水平方向に
直行する方向(すなわち前後方向)と垂直方向の動きを
検出する2つの動き検出素子を、または前後方向と水平
方向との動きを検出する2つの動き検出素子を、空間操
作マウスに設ても良い。また、検出する2軸の方向は、
平行でない限りは、直行していなくても構わない。この
点に関しては、後述する実施例においても同様である。
In the embodiment shown in FIG. 1, the spatial operation mouse is provided with a motion detecting element for detecting the movement in the two axial directions of the vertical and horizontal directions. Instead, two motion detection elements that detect movement in the direction orthogonal to the vertical and horizontal directions (that is, the front-back direction) and the vertical direction, or two motion detection elements that detect movement in the front-back direction and the horizontal direction. May be provided in the space operation mouse. Also, the directions of the two axes to detect are
Unless it is parallel, it does not need to go straight. This also applies to the examples described later.

【0034】図3に、本実施例の空間操作マウスをラッ
プトップコンピュータ21へ適用して構成される空間操
作型コンピュータシステムの使用概念図を示す。
FIG. 3 is a conceptual diagram of the use of the spatial operation type computer system configured by applying the spatial operation mouse of this embodiment to the laptop computer 21.

【0035】本発明によれば、マウスを操作するための
特別な作業環境や拘束された作業環境は不要である。す
なわち、操作者は、空間操作マウス本体1を握り、任意
の空間(すなわち操作者の目の前の空中など)で、これ
を上下左右に動かせば良い。この動きは、前述のように
水平方向動き検出素子2および垂直方向動き検出素子3
によって検出される。そして、検出された動きに応じた
制御信号が、赤外線発光素子5,6からラップトップコ
ンピュータ21へ放射され、赤外線受光素子23により
受光される。また、クリック動作を示す制御信号も、同
様にして、空間操作マウスからラップトップコンピュー
タ21へ伝送される。
According to the present invention, no special working environment or a restricted working environment for operating the mouse is required. That is, the operator may hold the space operation mouse body 1 and move it in any space (that is, in the air in front of the operator's eyes) up, down, left or right. This motion is caused by the horizontal motion detecting element 2 and the vertical motion detecting element 3 as described above.
Detected by. Then, a control signal corresponding to the detected movement is radiated from the infrared light emitting elements 5 and 6 to the laptop computer 21 and is received by the infrared light receiving element 23. Further, the control signal indicating the click operation is similarly transmitted from the spatial operation mouse to the laptop computer 21.

【0036】ラップトップコンピュータ21は、受け取
った制御信号に応じて、あるいは制御信号に基づく所定
の演算処理により空間操作マウスの移動量等を求めて、
この表示画面22のカーソルを動かす制御を行う。ま
た、必要な場合には、表示画面上のカーソル位置にある
表示物に対して所定の処理を施したり、あるいはカーソ
ル位置に対応する新たな入力画面の表示などの制御を行
う。さらには、クリック動作に応答して、カーソル位置
の表示物(または文字列)に予め対応付けられている所
定の処理を行うなどの制御を実行することもできる。
The laptop computer 21 obtains the amount of movement of the spatial operation mouse in accordance with the received control signal or by a predetermined arithmetic processing based on the control signal,
The control for moving the cursor on the display screen 22 is performed. If necessary, the display object at the cursor position on the display screen is subjected to a predetermined process, or a new input screen corresponding to the cursor position is displayed. Furthermore, in response to the click operation, it is possible to execute control such as performing a predetermined process associated with the display object (or the character string) at the cursor position in advance.

【0037】このように、操作者は、空間操作マウスを
用いて、表示画面22上に表示されたカーソル等を動か
すとともに、クリック動作を実行することにより、シス
テム制御を順次行っていく。
As described above, the operator uses the spatial operation mouse to move the cursor or the like displayed on the display screen 22 and executes the click operation to sequentially perform the system control.

【0038】以下、いくつかの表示画面例を用いて、本
発明の空間操作マウスを用いた入力操作の具体例を簡単
に説明する。
A specific example of the input operation using the spatial operation mouse of the present invention will be briefly described below using some examples of display screens.

【0039】図4(a),図4(b)は、AからIまで
の9個のアイコンのうちから、Fのアイコンを選ぶ操作
を実行する例である。まず、図4(a)のように、画面
上のDの部分に+印のカーソルがあるとする。操作者が
空間操作マウスを右側に動かすと、これに伴ってカーソ
ルも右側に移動する。そして、図4(b)のように、操
作者は、カーソルがFの上に移動したときに、空間操作
マウスのクリックボタン4を押して、ラップトップコン
ピュータ21に対して、Fのアイコンを選択したことを
伝える。Fのアイコンが選択されると、ラップトップコ
ンピュータ21は、Fのアイコンに対応する処理を実行
する。
4 (a) and 4 (b) show an example in which the operation of selecting the F icon from the nine icons A to I is executed. First, as shown in FIG. 4A, it is assumed that there is a + -marked cursor in the portion D on the screen. When the operator moves the spatial operation mouse to the right, the cursor also moves to the right accordingly. Then, as shown in FIG. 4B, when the cursor moves to F, the operator presses the click button 4 of the spatial operation mouse to select the F icon for the laptop computer 21. Tell the thing. When the F icon is selected, the laptop computer 21 executes the process corresponding to the F icon.

【0040】図5(a),図5(b)は、部屋の内部を
表した映像である。ここでは、この映像中から1つの対
象物を選ぶ操作を実行する例を説明する。表示画面上
で、矢印のアイコンによって示される部分は、網目状に
変化される。例えば、操作する前は、図5(a)のよう
に、矢印のアイコンがドアのところにある場合、ドアの
みが網目状に変化している。次に、操作者が空間操作マ
ウスを右に移動して、机の上のワードプロセッサの所に
アイコンを移動すると、図5(b)のように、ワ−ドプ
ロセッサのみが網目状に変化される。この網目表示によ
って、ワードプロセッサが指示されていることが、一目
で認識できる。操作者がこのワードプロセッサを選択し
たい場合は、網目状に変化している時にクリックボタン
4を押せば良い。
5 (a) and 5 (b) are images showing the inside of the room. Here, an example in which an operation of selecting one object from this video is executed will be described. The portion indicated by the arrow icon on the display screen is changed into a mesh shape. For example, before the operation, if the arrow icon is at the door as shown in FIG. 5A, only the door is changed into a mesh shape. Next, when the operator moves the spatial operation mouse to the right and moves the icon to the word processor on the desk, only the word processor is changed into a mesh shape as shown in FIG. 5 (b). . From this mesh display, it can be recognized at a glance that the word processor is instructed. If the operator wants to select this word processor, he / she can press the click button 4 while the mesh is changing.

【0041】図6(a),図6(b)は、建物の廊下を
表した映像である。ここでは、映像を操作者の見たい方
向に転換して表示させる操作を実行する例を説明する。
例えば、操作する前は、図6(a)のように、通路に平
行にまっすぐ見た映像が表示されている。操作者が手に
握った空間操作マウスを右側に動かすと、それに連動す
るように、表示される映像は徐々に右側を見た映像に変
化していく。そして、最終的に図6(b)のように先の
右側のドアを正面から見た映像に変化する。
6 (a) and 6 (b) are images showing the corridor of the building. Here, an example will be described in which an operation for converting an image into a direction desired by an operator and displaying the image is executed.
For example, before the operation, as shown in FIG. 6 (a), an image viewed straight ahead in parallel with the passage is displayed. When the operator moves the space operation mouse held in his / her hand to the right, the displayed image gradually changes to the image looking to the right, in conjunction with it. Then, finally, as shown in FIG. 6B, the image changes to a front view of the right door.

【0042】次に、本発明の空間操作マウスをより具体
化した構成例について説明する。
Next, a configuration example in which the spatial operation mouse of the present invention is more concretely described.

【0043】図7(a)は、本実施例の空間操作マウス
のより具体的なブロック図である。また、図7(b)
は、制御対象器機の一例を示す概略ブロック図である。
FIG. 7A is a more specific block diagram of the spatial operation mouse of this embodiment. In addition, FIG.
FIG. 3 is a schematic block diagram showing an example of a controlled device.

【0044】この空間操作マウスは、垂直方向の加速度
を検出するための第1動きセンサ30aと、この出力を
増幅する増幅器31aと、この出力を積分して速度を求
めるための速度検出部32aと、水平方向の加速度を検
出するための第2動きセンサ30bと、この出力を増幅
する増幅器31bと、この出力を積分して速度を求める
ための速度検出部32bと、前記速度検出部32a,3
2bの出力を伝送するための赤外線リモコン送信回路3
3と、この送信回路33により駆動される赤外線発光素
子34を備える。
This spatial operation mouse has a first motion sensor 30a for detecting vertical acceleration, an amplifier 31a for amplifying this output, and a speed detecting section 32a for integrating this output to obtain a speed. , A second motion sensor 30b for detecting horizontal acceleration, an amplifier 31b for amplifying this output, a speed detection unit 32b for integrating this output to obtain a speed, and the speed detection units 32a, 3a.
Infrared remote control transmission circuit 3 for transmitting the output of 2b
3 and an infrared light emitting element 34 driven by the transmitting circuit 33.

【0045】ここでは、第1動きセンサ30aおよび第
2動きセンサ30bとして、圧電素子を用いる。なお、
図2のようなクリックボタンを含むスイッチ部は、図面
上では省略してある。
Here, piezoelectric elements are used as the first motion sensor 30a and the second motion sensor 30b. In addition,
A switch unit including a click button as shown in FIG. 2 is omitted in the drawing.

【0046】一方、制御対象機器、例えばコンピュータ
は、赤外線発光素子34から放射された光信号を受信す
る赤外線受光素子35と、受光された信号を所定の形に
変換して出力する赤外線リモコン受信回路36と、その
出力に応答して、画面制御を含む所定の処理を実行する
処理部37と、表示画面38とにより構成される。
On the other hand, the device to be controlled, for example, a computer, includes an infrared light receiving element 35 for receiving the optical signal emitted from the infrared light emitting element 34 and an infrared remote control receiving circuit for converting the received signal into a predetermined form and outputting it. 36, a processing unit 37 that executes a predetermined process including screen control in response to the output, and a display screen 38.

【0047】これらの構成において、操作者は、この空
間操作マウスの本体を握り、任意の空間の仮想的な平面
で、これを上下左右等の2次元方向に動かして操作す
る。この空間操作マウスの動きは、第1動きセンサ30
aおよび第2動きセンサ30bの働きにより、例えば水
平および垂直の2方向の加速度に分解して検出され、そ
れぞれの加速度に比例した電圧信号が出力される。
In these configurations, the operator holds the main body of the space operation mouse and operates it by moving it in a two-dimensional direction such as up, down, left and right in a virtual plane of an arbitrary space. The movement of the spatial operation mouse is performed by the first movement sensor 30.
By the action of the a and the second motion sensor 30b, the acceleration is decomposed into, for example, two directions of horizontal and vertical directions and detected, and a voltage signal proportional to each acceleration is output.

【0048】検出された2方向の加速度に対応する電圧
信号は、比較的微弱な信号である。従って、2つの電圧
信号を、それぞれ増幅器31a,31bで増幅する。こ
のときに、必要であれば、ノイズ除去処理を行う。
The voltage signal corresponding to the detected acceleration in the two directions is a relatively weak signal. Therefore, the two voltage signals are amplified by the amplifiers 31a and 31b, respectively. At this time, if necessary, noise removal processing is performed.

【0049】次に、増幅された2つの信号は、速度検出
部32a,32bにそれぞれ与えられる。ここでは、2
方向の加速度に対応する電圧信号は、それぞれ積分によ
り、2方向の移動速度に対応する電圧信号に変換され
る。図8(a)は、検出されたマウスの加速度に対応す
る電圧信号と速度に変換された電圧信号と間の関係を示
す図である。破線l1は、加速度センサ30aまたは3
0bからの出力電圧を表す。実線l2は、速度検出部3
2aまたは32bに含まれる積分回路で速度に変換され
た出力電圧を表す。
Next, the two amplified signals are given to the speed detecting sections 32a and 32b, respectively. Here, 2
The voltage signals corresponding to the accelerations in the directions are converted into voltage signals corresponding to the moving speeds in the two directions by integration. FIG. 8A is a diagram showing a relationship between the voltage signal corresponding to the detected mouse acceleration and the voltage signal converted into the velocity. The broken line l1 indicates the acceleration sensor 30a or 3
It represents the output voltage from 0b. The solid line 12 indicates the speed detection unit 3
The output voltage converted into speed by the integrating circuit included in 2a or 32b is shown.

【0050】速度検出部32a,32bからは、速度に
変換された出力電圧l2をそのまま出力しても良い。あ
るいは、その代わりに、図8(b)に示すように、速度
に対応するパルス密度を有するパルス信号に変換した
後、出力しても良い。
From the speed detectors 32a and 32b, the output voltage 12 converted into speed may be output as it is. Alternatively, as shown in FIG. 8B, the pulse signal may be converted into a pulse signal having a pulse density corresponding to the velocity and then output.

【0051】また、加速度から速度を検出する動き演算
部としては、積分回路の他に、デジタル積分回路や、マ
イクロプロセッサによる演算を用いても実現可能であ
る。
Further, the motion calculating section for detecting the velocity from the acceleration can be realized by using a digital integrating circuit or calculation by a microprocessor in addition to the integrating circuit.

【0052】次に、速度検出部32a,32bの各出力
とスイッチ部からのクリック動作を示す信号を受けた赤
外線リモコン送信回路33は、これらの信号に対して、
必要な処理、例えばフォーマット変換、符号化、信号の
多重化、変調等のうちの任意の処理を施す。その後、赤
外線発光素子34を駆動して、この信号を制御対象機器
に対して送信する。
Next, the infrared remote control transmission circuit 33, which has received each output of the speed detection sections 32a and 32b and the signal indicating the click operation from the switch section, responds to these signals.
Arbitrary processing such as format conversion, encoding, signal multiplexing, and modulation is performed. Then, the infrared light emitting element 34 is driven to transmit this signal to the control target device.

【0053】図7(a)の空間操作マウスから送信され
た、この空間操作マウスの移動速度に対応する信号やク
リック動作を示す信号は、図7(b)の制御対象機器の
赤外線受光素子35により受光される。そして、これら
受光された信号に対して、赤外線リモコン受信回路36
により、所定の制御信号の形に戻す処理が行われる。
The signal corresponding to the moving speed of the spatial operation mouse and the signal indicating the click operation transmitted from the spatial operation mouse of FIG. 7A are the infrared light receiving element 35 of the control target device of FIG. 7B. Is received by. Then, the infrared remote controller receiving circuit 36
Thus, the process of returning to the predetermined control signal form is performed.

【0054】この制御信号を受けた処理部37は、所定
の演算処理により、空間操作マウスの移動量を求めるこ
とにより、この空間操作マウスの移動量、移動速度及び
それらの方向並びにクリック動作を表す信号をすべて獲
得することができる。処理部37は、これらの信号に応
答して、表示画面38上のカーソルを動かす制御を行
う。また、場合によっては、動かした後のカーソル位置
の表示物に所定の処理、例えば色あるいは模様を付す処
理を行う。あるいは、カーソル位置に対応する新たな入
力画面、例え現在の入力画面の下の階層の入力画面等を
表示する制御などを行う。さらにまた、クリック動作に
応答して、カーソル位置の表示物(または文字列)に対
応する処理、例えばその表示物等自体に処理を施すこと
ができる。あるいは、その文字列等が示すコマンド(画
面制御以外の制御を含む)を実行するなどの制御を実行
することも可能である。
Upon receipt of this control signal, the processing unit 37 obtains the amount of movement of the spatial operation mouse by a predetermined arithmetic processing, and represents the amount of movement of the spatial operation mouse, the moving speed, their direction, and the click operation. You can get all the signals. The processing unit 37 controls the cursor on the display screen 38 in response to these signals. Depending on the case, a predetermined process, for example, a process of adding a color or a pattern to the display object at the cursor position after the movement is performed. Alternatively, control is performed to display a new input screen corresponding to the cursor position, such as an input screen in a layer below the current input screen. Furthermore, in response to the click operation, the process corresponding to the display object (or the character string) at the cursor position, for example, the display object itself can be processed. Alternatively, it is possible to execute control such as executing a command (including control other than screen control) indicated by the character string or the like.

【0055】ここで、前記速度検出部32a,32b
は、図7(a)の空間操作マウス側に設けずに、図7
(b)の制御対象機器側に設けても良い。また、図7
(a)の空間操作マウス側で当該空間操作マウスの移動
量まで算定し、この算定した移動量を図7(b)の制御
対象機器側に与えるように構成しても良い。
Here, the speed detectors 32a, 32b
Is not provided on the side of the space operation mouse of FIG.
You may provide in the control target apparatus side of (b). Also, FIG.
It may be configured such that the space operation mouse side of (a) calculates up to the movement amount of the space operation mouse, and the calculated movement amount is given to the control target device side of FIG. 7 (b).

【0056】次に、動き検出素子として圧電振動ジャイ
ロを用いる例について説明する。
Next, an example in which a piezoelectric vibrating gyro is used as the motion detecting element will be described.

【0057】図9(a)に、圧電振動ジャイロの構造の
一例を示す。この圧電振動ジャイロでは、正三角柱の恒
弾性金属91を振動子として用いる。恒弾性金属91の
各面には、縦波モードの圧電セラミック92〜94が配
置される。図9(b)のように、励振電源96を用い
て、励振用圧電セラミック92に振動子91を励振させ
る。この場合、静止時には、検出用圧電セラミック9
3,94には等しい電圧が発生する。一方、この圧電振
動ジャイロが回転軸95を中心に回転すると、振動方向
からみて90度の方向に、角速度に比例したコリオリの
力が発生する。この結果、検出用圧電セラミック93に
発生する電圧と検出用圧電セラミック94に発生する電
圧との間に、差が生じる。従って、減算装置97を用い
て、検出用圧電セラミック93,94の出力電圧の差を
演算することによって、角速度を求めることができる。
2つの検出用圧電セラミック93,94の特性が同一で
あるとすると、出力端子98には、角速度に比例した電
圧信号のみが現れる。
FIG. 9A shows an example of the structure of the piezoelectric vibrating gyro. In this piezoelectric vibrating gyro, a regular triangular prism constant elastic metal 91 is used as a vibrator. Longitudinal wave mode piezoelectric ceramics 92 to 94 are arranged on each surface of the constant elastic metal 91. As shown in FIG. 9B, an exciting power supply 96 is used to excite the vibrator 91 in the exciting piezoelectric ceramic 92. In this case, when stationary, the detection piezoelectric ceramic 9
An equal voltage is generated at 3,94. On the other hand, when the piezoelectric vibrating gyro rotates about the rotary shaft 95, a Coriolis force proportional to the angular velocity is generated in the direction of 90 degrees as viewed from the vibrating direction. As a result, a difference occurs between the voltage generated in the detection piezoelectric ceramic 93 and the voltage generated in the detection piezoelectric ceramic 94. Therefore, the angular velocity can be obtained by calculating the difference between the output voltages of the detection piezoelectric ceramics 93 and 94 using the subtraction device 97.
If the characteristics of the two detection piezoelectric ceramics 93 and 94 are the same, only the voltage signal proportional to the angular velocity appears at the output terminal 98.

【0058】この圧電振動ジャイロを本発明の空間操作
マウスにさらに適用すれば、平行移動のみではなく、軸
回りの回転も検出することがでる。この適用は、空間操
作マウスの操作性の面において、様々な応用範囲の広が
りを与える。
If this piezoelectric vibration gyro is further applied to the spatial operation mouse of the present invention, not only the parallel movement but also the rotation around the axis can be detected. This application provides a wide range of applications in terms of the operability of the spatial manipulation mouse.

【0059】なお、振動子91が回転しなくても、励振
用圧電セラミックの振動方向からみて90度の方向に空
間操作マウス本体が動くと、検出用圧電セラミック9
3,94に、移動速度に比例する電圧差が発生する。こ
れを利用して、マウス本体の速度を検出することができ
る。
Even if the vibrator 91 does not rotate, if the body of the spatial operation mouse moves in a direction of 90 degrees with respect to the vibration direction of the exciting piezoelectric ceramic, the detecting piezoelectric ceramic 9
At 3, 94, a voltage difference proportional to the moving speed is generated. This can be used to detect the speed of the mouse body.

【0060】図10は、ポインティング動作を安定にす
るための手振れ補正回路を設けた空間操作マウスの構成
例である。この空間操作マウスの構成は、基本的には、
図7(a)の空間操作マウスの構成と同じである。ただ
し、増幅器31a,31bの後段に、帯域制限器39
a,39bをそれぞれ設けた点に、相違がある。
FIG. 10 shows an example of the structure of a spatial operation mouse provided with a camera shake correction circuit for stabilizing the pointing operation. The configuration of this space operation mouse is basically
The configuration is the same as that of the spatial operation mouse shown in FIG. However, the band limiter 39 is provided after the amplifiers 31a and 31b.
There is a difference in that a and 39b are provided respectively.

【0061】すなわち、空間操作マウスは操作者が手に
持って操作するため、操作者の手振れにより、どうして
も空間操作マウス本体が微妙に振動する。この結果、ポ
インティング動作が正確にできない場合が生ずる。そこ
で、帯域制限器39a,bを用いて、手振れによる振動
成分を除去するものである。
That is, since the operator manipulates the space operation mouse in his / her hand, the space operation mouse body inevitably vibrates slightly due to the hand shake of the operator. As a result, the pointing operation may not be performed accurately. Therefore, the band limiters 39a and 39b are used to remove the vibration component due to camera shake.

【0062】通常、手振れの周波数は、0.5Hz〜1
5Hz程度の周波数範囲にあると考えられる。従って、
帯域制限器39a,39bの周波数除去範囲は、上記範
囲に設定すると効果的である。これにより、操作者の意
図する動作に対してのみ、マウスの動きを検出すること
が可能になるので、操作者の意図しない誤入力を回避す
ることができる。従って、空間操作マウスの信頼性の向
上を図ることができる。
Normally, the frequency of camera shake is 0.5 Hz to 1
It is considered to be in the frequency range of about 5 Hz. Therefore,
It is effective to set the frequency removal range of the band limiters 39a and 39b to the above range. This makes it possible to detect the movement of the mouse only with respect to the motion intended by the operator, so that it is possible to avoid erroneous input that the operator does not intend. Therefore, the reliability of the space operation mouse can be improved.

【0063】この帯域制限器39a,39bには、帯域
制限フィルタまたは積分回路、あるいは演算回路を用い
ても良いし、ソフト処理によっても実現可能である。
As the band limiters 39a and 39b, a band limit filter, an integrating circuit, or an arithmetic circuit may be used, or they can be realized by software processing.

【0064】なお、アプリケーションによっては、帯域
制限器39a,39bの除去周波数を互いに異なる範囲
に設定しても良い。
Depending on the application, the removal frequencies of the band limiters 39a and 39b may be set in different ranges.

【0065】一方、手振れの周波数である0.5Hz〜
15Hz程度の周波数範囲に該当する緩慢な動作で、こ
の空間操作マウスの操作を行いたい場合もある。この場
合は、空間操作マウスに、帯域制限器39a,39bを
設ける経路と、設けない経路の2系統を設ければ良い。
そして、除去周波数の範囲に該当する動作であっても、
帯域制限器39a,39bを設けない経路から得られる
移動距離等を勘案し、操作者の意図する動作と認められ
る場合と認められない場合で経路を切り替えて信号を出
力しても良い。
On the other hand, 0.5 Hz, which is the frequency of camera shake,
There are cases where it is desired to operate the spatial operation mouse with a slow motion corresponding to a frequency range of about 15 Hz. In this case, the spatial operation mouse may be provided with two systems, a path in which the band limiters 39a and 39b are provided and a path in which they are not provided.
And even if the operation corresponds to the range of the removal frequency,
The signal may be output by switching the route depending on whether or not it is recognized as the operation intended by the operator in consideration of the moving distance obtained from the route without the band limiters 39a and 39b.

【0066】以上により、任意の空間でのポインタ動作
を可能とするとともに、コンピュータやマルチメディア
器機あるいはその表示装置から離れていても、手軽にポ
インタ操作や制御操作を行うができる空間操作マウスを
提供することができる。
As described above, the space operation mouse which enables the pointer operation in an arbitrary space and can easily perform the pointer operation and the control operation even if the pointer operation and the control operation are performed away from the computer or the multimedia device or its display device is provided. can do.

【0067】図11は、本発明の第2の実施例に係る空
間操作マウスの概略構成図である。第1の実施例と同様
に、水平方向動き検出素子112と垂直方向動き検出素
子113によって、空間操作マウス本体111の2次元
方向の動きを検出し、その結果得られる動き信号によ
り、制御対象機器の表示画面上のカーソルを動かす。操
作は、カーソルボタン114とクリックボタン117に
よって行われる。
FIG. 11 is a schematic configuration diagram of a spatial operation mouse according to the second embodiment of the present invention. Similar to the first embodiment, the horizontal motion detecting element 112 and the vertical motion detecting element 113 detect the two-dimensional motion of the spatial operation mouse body 111, and the resulting motion signal causes the controlled device to operate. Move the cursor on the display screen. The operation is performed by the cursor button 114 and the click button 117.

【0068】図12は、本発明の第2の実施例の空間操
作マウスをマルチメディアテレビに適用した場合の空間
操作型映像システムの使用概念図である。操作者は、従
来のボタン制御型の赤外線リモコン装置のように、多く
の機能ボタンを用いて操作を行うのではなく、テレビ画
面内に表示される入力画面を見ながら操作を行うことが
できる。
FIG. 12 is a conceptual diagram of the use of the spatial operation type video system when the spatial operation mouse of the second embodiment of the present invention is applied to a multimedia television. The operator can perform the operation while looking at the input screen displayed on the television screen, instead of using many function buttons as in the conventional button-controlled infrared remote control device.

【0069】操作者が空間操作マウス本体111を上下
左右に動かすと、空間操作マウスによってその動きが検
出される。そして、空間操作マウス内で動きに応じた制
御信号が生成され、赤外線発光素子115、116から
放射される。放射され赤外線は、マルチメディアテレビ
本体121の赤外線受光素子123により受光される。
When the operator moves the space operation mouse main body 111 vertically and horizontally, the movement is detected by the space operation mouse. Then, a control signal corresponding to the movement is generated in the spatial operation mouse and is emitted from the infrared light emitting elements 115 and 116. The emitted infrared rays are received by the infrared light receiving element 123 of the multimedia television main body 121.

【0070】操作者が、空間操作マウスのカーソルボタ
ン114を第1の指(例えば親指)で押すと、表示画面
122上にカーソルが表示される。マウス本体111を
動かして、カーソルをクリックしたい対象物上に移動す
る。そして、操作者は、第2の指(例えば人差し指や中
指)でクリックボタン117を押す。
When the operator pushes the cursor button 114 of the space operation mouse with the first finger (for example, thumb), the cursor is displayed on the display screen 122. The mouse body 111 is moved so that the cursor is moved onto the object to be clicked. Then, the operator presses the click button 117 with the second finger (for example, the index finger or the middle finger).

【0071】図13(a)〜図13(d)の画面例を用
いて、この空間操作型映像システムの操作の一例を説明
する。まず、画面にはチャンネルAの内容が映されてい
るものとする。そのような画面の状態を、図13(a)
に示す。操作者が例えばチャンネルDを画面に映したい
場合には、まず、操作者は、カーソルボタン114をク
リックする。すると、図13(b)のように、入力画面
124が表示される。このとき、入力画面124には、
チャンネルを表すA〜Fの文字が表示される。現在のチ
ャンネルであるAは、四角いカーソルで囲まれている。
操作者は、空間操作マウスを動かして、このカーソルを
図13(c)のようにDに移動させる。そして、クリッ
クボタン117を押し、続けてカーソルボタン114を
押す。すると、図13(d)のようにチャンネルが切り
替わり、入力画面124は消去される。
An example of the operation of this spatial operation type video system will be described with reference to the screen examples of FIGS. 13 (a) to 13 (d). First, it is assumed that the contents of channel A are displayed on the screen. The state of such a screen is shown in FIG.
Shown in. When the operator wants to display the channel D on the screen, for example, the operator first clicks the cursor button 114. Then, the input screen 124 is displayed as shown in FIG. At this time, on the input screen 124,
The letters A to F representing the channels are displayed. The current channel, A, is surrounded by a square cursor.
The operator moves the spatial operation mouse to move the cursor to D as shown in FIG. 13 (c). Then, the click button 117 is pressed, and then the cursor button 114 is pressed. Then, the channels are switched as shown in FIG. 13D, and the input screen 124 is erased.

【0072】このような操作は、チャンネル選択だけで
なく、音量調節、色調の調節等、あらゆる操作に用いる
ことができる。
Such an operation can be used not only for channel selection but also for various operations such as volume adjustment and color tone adjustment.

【0073】このように、本発明の空間操作マウスを用
いれば、従来の多くの機能ボタンを有するボタン制御型
の赤外線リモコン装置を用いる場合と異なり、操作者
は、テレビ画面を見ながら入力操作を行うことができ
る。したがって、操作者は、多くのボタンの機能をそれ
ぞれ記憶する負担や煩雑なボタン操作から解放される。
すなわち、本発明の空間操作マウスは、操作者にとって
非常に使いやすい操作環境を提供することができる。
As described above, by using the spatial operation mouse of the present invention, unlike the conventional case of using the button control type infrared remote control device having many function buttons, the operator can perform an input operation while watching the television screen. It can be carried out. Therefore, the operator is freed from the burden of memorizing the functions of many buttons and the complicated button operation.
That is, the spatial operation mouse of the present invention can provide an operating environment that is very easy for the operator to use.

【0074】ここで、1つのクリックボタンを有する第
1の実施例の空間操作マウスおよびカーソルボタンおよ
びクリックボタンの2つのボタンを有する第2の実施例
の空間操作マウスについて、種々のクリック動作のタイ
プを図14を参照しながら説明する。なお、図14にお
いて、「押す」という動作は、「押し続ける」ではなく
「押して放す」という動作を示す。
Here, with respect to the spatial operation mouse of the first embodiment having one click button and the spatial operation mouse of the second embodiment having two buttons of the cursor button and the click button, various types of click operation Will be described with reference to FIG. It should be noted that in FIG. 14, the operation of “pressing” does not indicate “keep pressing” but indicates “pressing and releasing”.

【0075】従来のメカニカル式マウスや光学式マウス
では、カーソル制御のオン/オフの切り換えは、マウス
本体を操作板に接触させるかさせないかで決められる。
従って、マウス本体が操作板の端に位置している場合
に、表示画面上でさらにカーソルを移動させたいとき
は、操作者は、一旦、マウスを持ち上げて、マウスを操
作板の移動可能領域に設置し直し、改めて操作板上を移
動させる。ところが、本発明の空間操作マウスでは、カ
ーソル制御のオン/オフの切り換えは、ボタンの押し方
あるいは放し方によって簡単に指示することができる。
あるいは、オン/オフ指示用のボタンの操作によって指
示される。
In the conventional mechanical mouse and optical mouse, the on / off switching of the cursor control is determined by whether or not the mouse body is brought into contact with the operation plate.
Therefore, when the mouse body is located at the edge of the operation plate and the user wants to move the cursor further on the display screen, the operator temporarily lifts the mouse and places the mouse in the movable area of the operation plate. Reinstall and move it again on the operation plate. However, in the spatial operation mouse of the present invention, the on / off switching of the cursor control can be easily instructed by pressing or releasing the button.
Alternatively, it is instructed by operating a button for on / off instruction.

【0076】まず、第2の実施例の空間操作マウスで
は、カーソル制御を可能にするためのカーソルボタン
(A)と確認動作あるいは選択動作をするためのクリッ
クボタン(B)とを別に設けている。
First, in the spatial operation mouse of the second embodiment, a cursor button (A) for enabling cursor control and a click button (B) for confirming operation or selecting operation are separately provided. .

【0077】操作タイプ1では、カーソルボタン(A)
を押すと、カーソルや必要な入力画面が表示され、カー
ソル制御が可能となる。操作者は、表示されたカーソル
を移動させた後、クリックボタン(B)を押す。この操
作により、確認入力あるいは選択入力がなされる。そし
て、再びカーソルボタン(A)を押すと、カーソルや入
力画面が消去され、カーソル制御が不可となる。
In operation type 1, the cursor button (A)
When you press, the cursor and the required input screen are displayed, and you can control the cursor. The operator moves the displayed cursor and then presses the click button (B). By this operation, confirmation input or selection input is made. Then, when the cursor button (A) is pressed again, the cursor and the input screen are erased and the cursor control becomes impossible.

【0078】操作タイプ2では、カーソルボタン(A)
を押し続けている間、カーソルや必要な入力画面が表示
され、カーソル制御が可能となる。カーソルを移動させ
た後、クリックボタン(B)を押すことにより、確認あ
るいは選択がなされる。そして、再びカーソルボタン
(A)を放すと、カーソルや入力画面が消去され、カー
ソル制御が不可となる。
In operation type 2, the cursor button (A)
While pressing and holding, the cursor and the necessary input screen are displayed and the cursor can be controlled. After the cursor is moved, the click button (B) is pressed for confirmation or selection. Then, when the cursor button (A) is released again, the cursor and the input screen are erased and the cursor control becomes impossible.

【0079】次に、第1の実施例の空間操作マウスは、
カーソル制御を可能にするためのカーソルボタンと確認
動作あるいは選択動作をするためのクリックボタンとを
1つのクリックボタンで共有したものである。
Next, the spatial operation mouse of the first embodiment is
One click button shares a cursor button for enabling cursor control and a click button for performing a confirmation operation or a selection operation.

【0080】操作タイプ3では、クリックボタンを1回
押すと、カーソルや必要な入力画面が表示され、カーソ
ル制御が可能となる。カーソルを移動させた後、クリッ
クボタンを予め設定された回数(例えば2回)押すこと
により、確認あるいは選択がなされる。そして、再びク
リックボタンを1回押すと、カーソルや入力画面が消去
され、カーソル制御が不可となる。
In operation type 3, when the click button is pressed once, the cursor and the necessary input screen are displayed, and the cursor can be controlled. After moving the cursor, the confirmation or selection is performed by pressing the click button a preset number of times (for example, twice). Then, when the click button is pressed once again, the cursor and the input screen are erased and the cursor control becomes impossible.

【0081】操作タイプ4では、クリックボタンを押し
続けている間、カーソルや必要な入力画面が表示され、
カーソル制御が可能となる。カーソルを移動させた後、
クリックボタンを放すことにより、確認あるいは選択が
なされるとともに、カーソルや入力画面が消去され、カ
ーソル制御が不可となる。
In operation type 4, while holding down the click button, the cursor and the necessary input screen are displayed,
Cursor control is possible. After moving the cursor,
By releasing the click button, confirmation or selection is made, the cursor and input screen are erased, and cursor control becomes impossible.

【0082】この操作タイプ3および4は、第2の実施
例の空間操作マウスでも使用可能である。
The operation types 3 and 4 can also be used in the spatial operation mouse of the second embodiment.

【0083】これらの操作タイプは、アプリケーション
の特徴等を考慮して、その都度最適なものを選択するの
が好ましい。
It is preferable to select the optimum operation type for each of these operation types in consideration of the characteristics of the application.

【0084】なお、この他の操作タイプとしては、例え
ば次のような方法がある。まず、制御対象機器側でカー
ソル制御を可能とするとともに、必要な場合にはその旨
を操作者に伝える。そして、空間操作マウス側では、確
認動作あるいは選択動作をするためのクリックボタンの
操作が行われる。
The other operation types include, for example, the following methods. First, the control target device side enables cursor control and, if necessary, informs the operator of that fact. Then, on the side of the spatial operation mouse, the operation of the click button for performing the confirmation operation or the selection operation is performed.

【0085】また、制御対象機器側で、カーソル制御を
可能や不可にするタイミングの制御、および確認動作あ
るいは選択動作タイミングの制御を司り、空間操作マウ
ス側では、クリックボタンを設けないあるいは設けても
操作しないで、カーソルの移動だけを行わせる様に構成
することも可能である。
The control target device controls the timing for enabling / disabling the cursor control and the control for the confirmation operation or the selection operation timing, and the space operation mouse side may or may not be provided with a click button. It is also possible to configure so that only the cursor is moved without any operation.

【0086】次に、本発明の第3の実施例について説明
する。
Next, a third embodiment of the present invention will be described.

【0087】本発明の空間操作マウスは、カーソルを用
いた画面上のアイコンや映像の制御に適用できるのみで
はなく、操作者が空間操作マウス本体を握って、空間に
所定の動作パターンを描くことにより意思を伝達できる
機能を付加したものである。それゆえ、空間操作マウス
という語句は、ポインティング・デバイスとしての機能
を有するマウスを意味するだけでなく、動作パターンに
よる入力機能をも含めた拡張した意味で用いるものとす
る。
The space operation mouse of the present invention can be applied not only to control icons and images on the screen using a cursor, but also allows the operator to hold the space operation mouse body and draw a predetermined operation pattern in the space. The function that can convey the intention is added. Therefore, the term "spatial operation mouse" is used not only to mean a mouse having a function as a pointing device, but also to have an expanded meaning including an input function according to a motion pattern.

【0088】基本的に、人間の通常の感覚に基づいて自
然になされる動作は、3次元空間内で営まれる。従っ
て、操作者による3次元空間動作のパターンの認識がで
きれば、操作者が感覚的にコンピュータや映像器機を制
御できるような環境を提供することが可能となる。すな
わち、日常生活の中で無意識に行われる生理的動作や習
慣的動作等の感覚的動作/反射的動作を利用するマン・
マシンインターフェイスは、感覚的制御に最適なヒュー
マンインターフェイスと言える。
Basically, a natural motion based on a normal human sense is performed in a three-dimensional space. Therefore, if the operator can recognize the pattern of the three-dimensional spatial motion, it is possible to provide an environment in which the operator can intuitively control the computer and the video equipment. That is, a person who uses sensory / reflexive actions such as physiological actions and habitual actions that are unconsciously performed in daily life.
It can be said that the machine interface is a human interface most suitable for sensory control.

【0089】感覚的制御に利用する生理的動作や習慣的
動作としては、以下のようなものが考えられる。まず、
生理的動作の例としては、喜怒哀楽の情緒的感情に伴う
動作や、人の体の構造上規定される動作がある。次の5
つの動作は、生理的動作の例である。(i )驚いた時に
は、一瞬筋肉が萎縮し、体がすくむ。(ii)緊張してい
る時には、手足が震える。(iii )注意している時に
は、静止する。(iv)相手を攻撃するときは、手を突き
出したり、上から降り下ろしたりする。(v )右利きの
人が紙をめくる時は、左下から右上に向かってめくる。
The following are possible physiological and habitual movements used for sensory control. First,
Examples of physiological actions include actions associated with emotional emotions such as emotions and emotions, and actions defined by the structure of the human body. Next 5
One motion is an example of a physiological motion. (I) When you are surprised, your muscles atrophy and your body is shrugging for a moment. (Ii) When you are nervous, your limbs tremble. (Iii) Stand still when you are careful. (Iv) When attacking your opponent, stick your hand out or drop it from above. (V) When a right-handed person flips over the paper, flip it from the lower left to the upper right.

【0090】また、次の4つの動作は、習慣的動作の例
である。(i )肯定の場合に、首を縦に振る。(ii)音
量アップの時は、右回しでボリュームを操作し、音量ダ
ウンの時は、左回しの動作をする。(iii )別れる時
は、手を上げて、左右に振る。(iv)人を呼び寄せる時
は、手のひらを上に向け、手前に振る。このように、日
常生活において、万人が同じような動作を習慣的に行う
例は多い。
The following four actions are examples of habitual actions. (I) If yes, shake your head vertically. (Ii) When the volume is up, the volume is turned clockwise to operate the volume, and when the volume is down, the volume is turned counterclockwise. (Iii) When parting, raise your hand and shake to the left or right. (Iv) When attracting people, turn your palm up and shake it. As described above, in everyday life, there are many examples in which everybody habitually performs the same motion.

【0091】生理的動作や習慣的動作を入力パターンと
して利用することは、操作者にとって、それらの動作が
無意識に感覚的にできる点において、優れている。
The use of physiological movements or habitual movements as an input pattern is excellent for the operator in that the movements can be instinctively sensed.

【0092】ただし、2次元平面では、その動作の表現
と認識が困難である。すなわち、3次元空間内での動作
確認技術が必要不可欠である。従って、従来の操作板上
で操作する2次元マウスから動作パターンを入力して
も、人間の3次元空間での感覚的動作を認識することは
できない。これに対して本発明では、空間操作マウス本
体1を3次元空間内で操作できるため、従来の2次元マ
ウスでは不可能な感覚制御型ヒューマンインターフェイ
スを実現することができるわけである。
However, on a two-dimensional plane, it is difficult to express and recognize the motion. That is, the operation confirmation technique in the three-dimensional space is indispensable. Therefore, even if a motion pattern is input from the conventional two-dimensional mouse operated on the operation plate, it is not possible to recognize a human's sensory motion in the three-dimensional space. On the other hand, in the present invention, since the spatial operation mouse body 1 can be operated in the three-dimensional space, it is possible to realize a sensory control type human interface which cannot be achieved by the conventional two-dimensional mouse.

【0093】図15は、空間動作パターンによる入力機
能を有する空間操作マウスのブロック図の一例である。
この空間操作マウスは、第1動きセンサ30a、増幅器
31a、前述の帯域制限器39a、A/D変換器40
a、速度検出部32c、第2動きセンサ30b、増幅器
31b、前述の帯域制限器39b、A/D変換器40
b、速度検出部32d、動作認識部41、動作パターン
メモリ42、赤外線リモコン送信回路43、赤外線発光
素子34により構成される。
FIG. 15 is an example of a block diagram of a spatial operation mouse having an input function according to a spatial motion pattern.
This spatial operation mouse includes a first motion sensor 30a, an amplifier 31a, the band limiter 39a and the A / D converter 40 described above.
a, speed detector 32c, second motion sensor 30b, amplifier 31b, band limiter 39b, A / D converter 40 described above
b, a speed detection unit 32d, a motion recognition unit 41, a motion pattern memory 42, an infrared remote control transmission circuit 43, and an infrared light emitting element 34.

【0094】基本的な構成は、図10の空間操作マウス
とほぼ同様であるが、操作者によって空間に描かれた動
作パターンを認識するための動作認識部41および動作
パターンメモリ42を設けた点が異なる。
The basic structure is almost the same as that of the space operation mouse of FIG. 10, but is provided with a motion recognition section 41 and a motion pattern memory 42 for recognizing a motion pattern drawn in space by the operator. Is different.

【0095】まず、ポインティング・デバイスとしての
機能は、図10とほぼ同様の構成、すなわち、第1動き
センサ30a、増幅器31a、前述の帯域制限器39
a、A/D変換器40a、速度検出部32c、第2動き
センサ30b、増幅器31b、帯域制限器39b、A/
D変換器40b、および速度検出部32dを用いて実現
される。
First, the function of the pointing device is almost the same as that of FIG. 10, that is, the first motion sensor 30a, the amplifier 31a, and the band limiter 39 described above.
a, A / D converter 40a, speed detector 32c, second motion sensor 30b, amplifier 31b, band limiter 39b, A /
It is realized using the D converter 40b and the speed detection unit 32d.

【0096】速度検出部32c,32dには、それぞれ
A/D変換された信号が与えられる。速度検出部32
c,32dでは、デジタル処理が行われる点のみが異な
り、動作に関しては図7のものと同一である。従って、
この部分の構成および動作の詳細については、すでに説
明したので記載を省略する。なお、速度検出部32c,
32dには、A/D変換する前の信号を与えるように構
成しても構わない。
The A / D converted signals are applied to the speed detectors 32c and 32d, respectively. Speed detector 32
In c and 32d, only the point that digital processing is performed is different, and the operation is the same as that in FIG. Therefore,
The details of the configuration and operation of this part have already been described, and will not be described. The speed detecting unit 32c,
A signal before A / D conversion may be applied to 32d.

【0097】次に、この空間操作マウスを用いた動作パ
ターンの認識処理と、それによる対象機器の制御につい
て説明する。
Next, the process of recognizing an operation pattern using this spatial operation mouse and the control of the target device by this process will be described.

【0098】図16(a),図16(b),図16
(c)は、そのような動作パターンによる入力動作の例
である。空間操作マウスを図16(a)のように回転さ
せる動作、図16(b)のように上下に振る動作、ある
いは、図16(c)のように左右に振る動作、といった
種々の動作パターンに対応して登録された制御を、コン
ピュータ等の制御対象機器に対して行うことができる。
例えば、制御対象機器がスピーカーを内蔵している場
合、空間操作マウスを右に回すと音量が増加し、左に回
すと減少する、といった制御をさせることが可能であ
る。あるいは、制御対象機器から確認のための入力を求
められた場合、空間操作マウスを上下に振ると“Ye
s”が伝えられ、左右に振ると“No”が伝えられるな
ど、種々の制御をさせることが可能である。
16 (a), 16 (b) and 16
(C) is an example of the input operation by such an operation pattern. Various operation patterns such as an operation of rotating the space operation mouse as shown in FIG. 16A, an up and down operation as shown in FIG. 16B, or an left and right operation as shown in FIG. 16C. Correspondingly registered control can be performed on a control target device such as a computer.
For example, when the device to be controlled has a built-in speaker, it is possible to perform control such that the volume increases when the spatial operation mouse is turned to the right and decreases when the spatial operation mouse is turned to the left. Alternatively, if the controlled device requests input for confirmation, shake the spatial operation mouse up and down to display "Ye
It is possible to perform various controls, such as "s" being transmitted and "No" being transmitted by shaking to the left or right.

【0099】まず、操作者は、本実施例の空間操作マウ
スを握り、手を動かして、予め決められている基本動作
パターンを空間に描く。空間操作マウスの動きは、第1
動きセンサ30a,30bにより、一旦2つの方向の動
きに分解されて検出される。それぞれの方向の動きを表
す信号は、増幅器31a,31bにより増幅され、帯域
制限器39a,39bにより余分な成分が除去され、A
/D変換器40a,40bによりデジタル信号に変換さ
れて、動作認識部41にそれぞれ与えられる。
First, the operator grasps the space operation mouse of this embodiment and moves his hand to draw a predetermined basic motion pattern in space. The movement of the space operation mouse is the first
The motion sensors 30a and 30b once decompose the motion into two directions and detect the motion. The signals representing the movements in the respective directions are amplified by the amplifiers 31a and 31b, and the excess components are removed by the band limiters 39a and 39b.
The signals are converted into digital signals by the / D converters 40a and 40b and given to the motion recognition unit 41, respectively.

【0100】一方、動作パターンメモリ42には、所定
の様々な基本動作パターンに対応する基本データが格納
されている。
On the other hand, the operation pattern memory 42 stores basic data corresponding to various predetermined basic operation patterns.

【0101】動作認識部41は、まず、操作者の3次元
空間における動作をパターン化するために、2つの方向
の動きを表す信号を基本データと同じフォーマットの動
作パターンデータに変換する。そして、この動作パター
ンデータと基本データとを比較することによって、動作
パターンの識別を行い。そして、該当する基本動作パタ
ーンを示す動作コードを獲得する。
The motion recognition section 41 first converts a signal representing motion in two directions into motion pattern data having the same format as the basic data in order to pattern the motion of the operator in the three-dimensional space. Then, the operation pattern is identified by comparing the operation pattern data with the basic data. Then, the operation code indicating the corresponding basic operation pattern is acquired.

【0102】この動作コードは、赤外線リモコン送信回
路43と赤外線発光素子34により制御対象機器に送信
される。これを受信した制御対象機器は、与えられた動
作コードに対応する制御を実行する。
This operation code is transmitted to the controlled device by the infrared remote control transmission circuit 43 and the infrared light emitting element 34. The device to be controlled which has received this executes the control corresponding to the given operation code.

【0103】ここで、操作者の動作により得られた動作
パターンデータおよび動作パターンメモリ42に格納さ
れている基本データを比較することによって、操作者の
動作を同定しようとしても、識別しにくい動作がなされ
た結果、動作を同定しきれない場合が考えられる。そこ
で、例えば動作パターンデータと基本データとの間の類
似度を計算し、測定された動作パターンデータに対して
類似度の一番高い基本データを有する動作パターンを操
作者が行った動作ものと決定し、決定した動作パターン
に対応する動作コードを得るようにしても良い。あるい
は、良く知られているニューロやファジー等の手法を用
いて、動作パターンの識別を行っても良い。
Here, by comparing the motion pattern data obtained by the motion of the operator with the basic data stored in the motion pattern memory 42, even if an attempt is made to identify the motion of the operator, it is difficult to identify the motion. As a result, it may be impossible to identify the motion. Therefore, for example, the similarity between the motion pattern data and the basic data is calculated, and the motion pattern having the basic data with the highest similarity to the measured motion pattern data is determined to be the motion performed by the operator. However, an operation code corresponding to the determined operation pattern may be obtained. Alternatively, the operation pattern may be identified using a well-known method such as neuro or fuzzy.

【0104】また、測定された動作パターンデータに対
して同程度の類似度を有する基本データが複数検出され
た場合、複数の動作コードと類似度の組を制御対象機器
側に送信し、制御対象機器側の方で、与えられたデータ
の組に基づいて適宜処理を行っても良い。あるいは、動
作パターンが特定できないことを制御対象機器側に伝
え、制御対象機器側の方で画面表示あるいは合成音等を
用いて、再度動作パターンによる入力を実行するよう
に、操作者に伝えるように構成しても良い。
Further, when a plurality of basic data having a similar degree of similarity to the measured operation pattern data are detected, a plurality of sets of action codes and similarities are transmitted to the control target device side, and the control target device side is transmitted. The device may perform appropriate processing based on a given data set. Alternatively, the control target device side is informed that the operation pattern cannot be specified, and the control target device side is instructed to the operator to execute the input according to the operation pattern again by using the screen display or the synthesized sound. It may be configured.

【0105】動きの認識については、様々なバリエーシ
ョンが考えられ、「8の字」や「×印」のような複雑な
動きも認識可能である。また、移動速度、加速度、パタ
ーンの大きさ等の種々データを用い、また組み合わせれ
ば、さらに数多くの種類の制御が可能となる。例えば、
空間操作マウスを右に回すと音量が増加する場合、大き
な輪を描くように(あるいは早い速度で)右に回すとき
の方が、小さく輪を描くように(あるいは遅い速度で)
右に回すときよりも、音量の増加の度合いが大きくなる
ように設定することも可能である。
There are various variations of motion recognition, and complex motions such as "8" and "x" can be recognized. Further, various kinds of data such as the moving speed, the acceleration, the size of the pattern, and the like can be used and combined to enable various types of control. For example,
If the volume increases when the space control mouse is turned to the right, draw a large circle (or at a faster speed) and make a smaller circle (or at a slower speed) when rotated to the right.
It is also possible to set so that the degree of increase in the volume is larger than when the knob is turned to the right.

【0106】また、基本動作パターンに対して、前述の
ような人間の通常の習慣的な動作が示す意味に対応する
処理内容を割り当て、あるいは基本動作パターンに対し
て、その基本動作パターンから受ける印象から違和感の
生じない処理内容を割り当てると効果的である。そのよ
うにすれば、操作者は、困難なく種々の基本動作パター
ンに与えられた機能を記憶することができるとともに、
使用時も非常に使い易くなる。このように、本発明の空
間操作マウスを適用すれば、優れたマン・マシンインタ
ーフェイス環境を提供することができる。
Further, the basic operation pattern is assigned with the processing content corresponding to the meaning of the above-described normal human habitual operation, or the basic operation pattern is given an impression from the basic operation pattern. It is effective to assign processing contents that do not cause discomfort. By doing so, the operator can memorize the functions given to various basic operation patterns without difficulty, and
Very easy to use when used. As described above, by applying the space operation mouse of the present invention, an excellent man-machine interface environment can be provided.

【0107】ここで、動きを検出すべき2つの方向につ
いては、本実施例では垂直および水平方向に動きを扱っ
た。その代わりに、これらに直行する方向(すなわち前
後方向)と垂直方向の2つの方向や、前後方向と水平方
向の2つの方向の動きを検出するように構成することが
可能である。さらに、動き検出部を増設して、動きを検
出できる軸を増やすことによって、動作パターン入力に
用いる基本動作パターンとして、3次元空間でのさらに
複雑な動作を用いることも可能である。また、手首のひ
ねり等の動作による軸の回りの回転を検出して、これを
動作パターンあるいは動作パターンの一部として用いて
も効果的である。
Here, with respect to the two directions in which the motion should be detected, the motion is handled in the vertical and horizontal directions in this embodiment. Instead, it is possible to detect movements in two directions perpendicular to these directions (that is, the front-back direction) and the vertical direction, or in two directions, the front-back direction and the horizontal direction. Furthermore, it is possible to use a more complicated operation in a three-dimensional space as a basic operation pattern used for inputting an operation pattern by adding a motion detection unit and increasing the number of axes capable of detecting the motion. It is also effective to detect the rotation around the axis due to the action of twisting the wrist and use this as the action pattern or a part of the action pattern.

【0108】なお、本実施例の空間操作マウスの2つの
機能、すなわちいわゆるポインタ機能とこの動作パター
ン入力機能の使い分けは、空間操作マウスの方で設定し
ても良いし、制御対象機器の方で指示しても良い。ま
た、このポインタ機能と動作パターン入力機能を組合わ
せて使用することも可能である。
The two functions of the spatial operation mouse of this embodiment, that is, the so-called pointer function and this operation pattern input function, may be selectively used by the spatial operation mouse or by the controlled device. You may instruct. It is also possible to use the pointer function and the operation pattern input function in combination.

【0109】また、前記動作認識部41および動作パタ
ーンメモリ42は制御対象機器の方に設け、当該空間操
作マウスからは動き検出をして得られたそのままのデー
タを出力するように構成しても良い。
Further, the motion recognition unit 41 and the motion pattern memory 42 may be provided on the device to be controlled so that the spatial operation mouse outputs the data as it is, which is obtained by detecting the motion. good.

【0110】本実施例では、操作者が空間操作マウスを
手に握って操作する例について説明した。空間操作マウ
スを手に握って操作する代りに、空間操作マウスを操作
者の体の他の部分、例えば足あるいは頭に装着し、それ
らの装着した部分の動作パターンを検出しても良い。ま
た、操作者の操作する装置あるいは道具に装着あるいは
内臓して、それら装置等の動作パターンを検出しても良
い。
In this embodiment, an example has been described in which the operator holds the spatial operation mouse in his hand and operates it. Instead of holding the space operation mouse in the hand and operating it, the space operation mouse may be attached to another part of the operator's body, for example, the foot or the head, and the motion pattern of the attached part may be detected. Further, it may be attached to or incorporated in a device or tool operated by the operator to detect the operation pattern of these devices or the like.

【0111】以上のように、本発明によれば、任意の空
間でのポインタ動作を可能にするだけでなく、操作者の
動作を認識することができる空間操作マウスを提供する
ことができる。また、コンピュータやマルチメディア器
機あるいはその表示装置から離れていても、手軽にポイ
ンタ操作や制御操作を可能にする空間操作マウスを提供
することができる。
As described above, according to the present invention, it is possible to provide a space operation mouse which enables not only pointer operation in an arbitrary space but also operation of an operator. Further, it is possible to provide a spatial operation mouse that enables easy pointer operation and control operation even if the mouse is away from the computer, the multimedia device, or the display device thereof.

【0112】次に、本発明の第4の実施例を説明する。Next, a fourth embodiment of the present invention will be described.

【0113】本実施例は、概略的には第3の実施例と同
様に、空間操作マウスのような3次元入力装置を用い
て、空間動作パターンを入力して、所望の機能を実行さ
せるシステムである。本実施例では、第3の実施例にお
ける動作パターンの認識処理をさらに詳細化している。
すなわち、後述するように、操作者の空間での動作パタ
ーンを微小な基準ベクトルの集合である動作ベクトル列
に変換し、動作ベクトル列と予め登録された操作者の基
本動作パターンとを比較して認識を行うところに特徴が
ある。
In the present embodiment, similarly to the third embodiment, a system for inputting a spatial motion pattern and executing a desired function using a three-dimensional input device such as a spatial operation mouse. Is. In this embodiment, the operation pattern recognition processing in the third embodiment is further detailed.
That is, as will be described later, the motion pattern in the operator's space is converted into a motion vector sequence which is a set of minute reference vectors, and the motion vector sequence is compared with the operator's basic motion pattern registered in advance. It is characterized in that it recognizes.

【0114】本実施例の空間動作パターン入力システム
を用いると、概略的には、操作者は、基本動作パターン
を空間に描くことにより、このパターンに対応付けられ
ている機能を実行させることができる。例えば図17に
示すような機能が実現できる。図17は、本発明による
空間動作パターンによる入力操作の一例を示したもので
ある。図のように、操作者が、空間操作マウス1を、a
からb、そしてcへと三角形状に動かすことにより、表
示装置202の表示画面203に表示されていた選択肢
の中から、三角形の項目を選ぶことができる。
Using the spatial motion pattern input system of this embodiment, roughly, the operator can execute the function associated with this basic motion pattern by drawing it in space. . For example, the function shown in FIG. 17 can be realized. FIG. 17 shows an example of the input operation by the spatial motion pattern according to the present invention. As shown in the figure, the operator
By moving the triangles from to b to c in a triangular shape, a triangular item can be selected from the options displayed on the display screen 203 of the display device 202.

【0115】次に、本発明で用いる動作ベクトルの概念
を説明する。図18(a)に、操作者によって動かされ
ている空間操作マウス1の運動の大きさ(V)と方向
(θ)を示す。図18(b)のように、ある時刻(t)
において操作者によってなされた動作を、基準ベクトル
の大きさ(n)の倍数と基準方向(例えば水平方向)に
対する角度の組で表現する。このように表現した動作
を、動作ベクトル(Vt、θt)と定義する。図18
(a)のように、この動作ベクトルは、空間操作マウス
1によって検出される検出量を一定時間でサンプリング
することによって、直接得られる検出軸方向の速度(v
x 、vy )あるいは加速度(αx 、αy )を指定値とし
て、テーブルを参照して得られるベクトルである。動作
ベクトルは、その大きさを基準ベクトルの大きさ(n)
の倍数で表現したものである。よって、この動作ベクト
ルを用いれば、基準位置(原点)に対する空間操作マウ
スの空間座標を測定しなくても、空間操作マウスの動き
を、時系列の微小基準ベクトル集合として相対的に得る
ことが可能となる。
Next, the concept of the motion vector used in the present invention will be described. FIG. 18A shows the magnitude (V) and the direction (θ) of the movement of the spatial operation mouse 1 moved by the operator. As shown in FIG. 18B, a certain time (t)
The operation performed by the operator is represented by a set of a multiple of the size (n) of the reference vector and an angle with respect to the reference direction (for example, the horizontal direction). The motion expressed in this way is defined as a motion vector (Vt, θt). FIG.
As shown in (a), this motion vector is obtained by directly sampling the detection amount detected by the spatial operation mouse 1 for a certain period of time, and the velocity (v
x, vy) or acceleration (αx, αy) is a vector obtained by referring to a table with a specified value. The motion vector has its magnitude as the magnitude (n) of the reference vector.
It is expressed in multiples of. Therefore, by using this motion vector, the movement of the spatial operation mouse can be relatively obtained as a time-series set of minute reference vectors without measuring the spatial coordinates of the spatial operation mouse with respect to the reference position (origin). Becomes

【0116】次に、動作を表現する際に一般的に用いら
れるいわゆる運動ベクトルと本発明において使用される
動作ベクトルの相違を説明する。図19のように、運動
ベクトルによる表現では、ある運動を始点と終点のみで
とらえ、始点−終点間の運動の大きさ(V)と方向
(θ)を用いる。一方、本発明における動作ベクトルに
よる表現では、ある運動の始点から終点までを微小なベ
クトルの集合としてとらえ、ある時刻(t)における個
々の微小ベクトルの大きさ(Vt)と方向(θt)を用
いる。これによって、空間における不安定な動作でも、
それぞれの動作ベクトルの大きさあるいは方向の時間的
変化を追っていくことによって、相対的に、ある動作を
とらえることができる。
Next, the difference between the so-called motion vector generally used for expressing motion and the motion vector used in the present invention will be described. As shown in FIG. 19, in the expression using the motion vector, a certain motion is captured only at the start point and the end point, and the magnitude (V) and the direction (θ) of the motion between the start point and the end point are used. On the other hand, in the expression by the motion vector in the present invention, the start point to the end point of a certain motion is regarded as a set of minute vectors, and the magnitude (Vt) and direction (θt) of each minute vector at a certain time (t) are used. . By this, even in unstable movement in space,
By following the temporal changes in the magnitude or direction of each motion vector, it is possible to relatively capture a certain motion.

【0117】図20は、本発明の空間操作マウスを用い
る空間動作パターン入力システムの要部構成の一例を示
すブロック図である。本実施例の空間動作パターン入力
システムは、動作検出部204と、動作ベクトルへの変
換を行う変換部205と、検出量と動作ベクトルとの対
応を示したベクトルテーブル206と、識別部207
と、実行部208により構成される。
FIG. 20 is a block diagram showing an example of the main configuration of the spatial motion pattern input system using the spatial operation mouse of the present invention. The spatial motion pattern input system according to the present exemplary embodiment includes a motion detection unit 204, a conversion unit 205 that performs conversion into a motion vector, a vector table 206 that shows a correspondence between a detection amount and a motion vector, and an identification unit 207.
And the execution unit 208.

【0118】図20の各構成部分は、適宜、空間操作マ
ウスと、制御対象機器に分散配置することができる。た
だし、少なくとも、動作検出部204は空間操作マウス
に実装し、実行部208は制御対象機器に実装する。例
えば、動作検出部204を空間操作マウスに実装し、変
換部205とベクトルテーブル206と識別部207と
実行部208とを制御対象機器に実装する。あるいは、
動作検出部204と変換部205とベクトルテーブル2
06を空間操作マウスに実装し、識別部207と実行部
208とを制御対象機器に実装する。他にも、種々の実
装の仕方が考えられる。
The components shown in FIG. 20 can be appropriately arranged in the spatial operation mouse and the controlled devices. However, at least the motion detection unit 204 is mounted on the spatial operation mouse, and the execution unit 208 is mounted on the control target device. For example, the motion detection unit 204 is mounted on the spatial operation mouse, and the conversion unit 205, the vector table 206, the identification unit 207, and the execution unit 208 are mounted on the control target device. Alternatively,
Motion detection unit 204, conversion unit 205, and vector table 2
06 is mounted on the spatial operation mouse, and the identification unit 207 and the execution unit 208 are mounted on the control target device. Besides, various mounting methods are possible.

【0119】動作検出部204を空間操作マウスに実装
し、他を制御対象機器に実装する場合、動作検出部20
4の出力信号は、図7(a)のように赤外線リモコン送
信回路33を用いて送信され、図7(a)のような制御
対象機器側の赤外線リモコン受信回路36を用いて受信
される。他の実装方法を採用する場合も、同様の方法で
信号を、空間操作マウス側から制御対象機器側へ渡すこ
とができる。
When the motion detecting unit 204 is mounted on the spatial operation mouse and the other is mounted on the controlled device, the motion detecting unit 20
The output signal of No. 4 is transmitted using the infrared remote control transmission circuit 33 as shown in FIG. 7A, and is received using the infrared remote control reception circuit 36 on the side of the controlled device as shown in FIG. 7A. Even when other mounting methods are adopted, signals can be passed from the spatial operation mouse side to the control target device side by the same method.

【0120】すなわち、赤外線リモコン送信回路33あ
るいは送信部18は、後述する動作パターン入力に必要
な処理が全て終了した時点の信号、あるいは処理の途中
の時点での信号に、フォーマット変換、符号化、多重
化、変調等の処理を施した後、赤外線発光素子12、1
3を駆動して、この信号を制御対象機器まで伝送する。
これを受けた制御対象機器は、動作パターン入力処理の
途中の信号であれば、その後のステップの処理を行っ
て、動作パターン入力方法に対応した所定の制御動作を
実行する。
That is, the infrared remote controller transmission circuit 33 or the transmission unit 18 performs format conversion, encoding, or signal conversion to a signal at the time when all the processing necessary for inputting an operation pattern, which will be described later, is completed or a signal at the time of the processing. After performing processing such as multiplexing and modulation, the infrared light emitting elements 12, 1
3 is transmitted and this signal is transmitted to the controlled device.
If the control target device receives the signal, if the signal is in the middle of the operation pattern input process, the device to be controlled performs the subsequent steps to execute a predetermined control operation corresponding to the operation pattern input method.

【0121】本実施例では、空間操作マウスとして、図
1および図2や、図15などの既に各実施例で説明した
ものを用いることができる。例えば、第3の実施例で説
明した空間操作マウスを利用する場合、動作検出部20
4は、第1動きセンサ30a、増幅器31a、帯域制限
器39a、A/D変換器40a、第2動きセンサ30
b、増幅器31b、帯域制限器39b、A/D変換器4
0bを利用して構成することができる。また、変換部2
05とベクトルテーブル206と識別部207は、動作
認識部41に対応する。動作認識部41が用いる動作パ
ターンメモリ42には、後述するような基本動作パター
ンが格納される。実行部208は、例えば図7(b)の
処理部37の実行機能に該当する。
In this embodiment, as the space operation mouse, the mouse already described in each embodiment of FIGS. 1 and 2 and FIG. 15 can be used. For example, when the spatial operation mouse described in the third embodiment is used, the motion detection unit 20
4 is a first motion sensor 30a, an amplifier 31a, a band limiter 39a, an A / D converter 40a, and a second motion sensor 30.
b, amplifier 31b, band limiter 39b, A / D converter 4
It can be configured using 0b. Also, the conversion unit 2
05, the vector table 206, and the identification unit 207 correspond to the motion recognition unit 41. The motion pattern memory 42 used by the motion recognition unit 41 stores basic motion patterns to be described later. The execution unit 208 corresponds to the execution function of the processing unit 37 in FIG. 7B, for example.

【0122】なお、前出の空間操作マウスを利用する場
合、スイッチ部17(ただし図15では図中からは省略
されている)には、確認動作あるいは選択動作をするた
めのクリックボタンに加えて、カーソル制御を可能とす
るためのカーソルボタンや後述する動作パターン入力を
可能とするための動作パターン入力ボタン等をさらに設
ける修正を施すこともある。
When the spatial operation mouse described above is used, the switch section 17 (not shown in FIG. 15) is provided with a click button for performing a confirmation operation or a selection operation. In some cases, a cursor button for enabling cursor control, an operation pattern input button for enabling an operation pattern input described later, and the like may be further provided for modification.

【0123】ここで、特開平3−192423に、空間
での動作を検出し、これをコンピュータに入力する3次
元コンピュータ入力装置が開示されている。しかしなが
ら、空間での動作検出の概念を開示するに留まってお
り、一部のポインティング操作に用いることができるの
みである。一方、本発明は、空間操作マウス等によって
操作者の任意空間での動作を検出し、これを意味のある
動作として入力し、3次元空間における動作認識を行う
ことを目的としており、これを前述の動作ベクトルとい
う概念を用いて実現するものである。
Here, Japanese Patent Laid-Open No. 3-192423 discloses a three-dimensional computer input device for detecting a motion in space and inputting it into a computer. However, it only discloses the concept of motion detection in space and can only be used for some pointing operations. On the other hand, an object of the present invention is to detect a motion of an operator in an arbitrary space by a spatial operation mouse or the like, input the motion as a meaningful motion, and perform motion recognition in a three-dimensional space. It is realized by using the concept of motion vector.

【0124】図21は、前記動作検出部204にて得ら
れた空間動作量を動作パターンに変換する変換部205
の機能を説明するための図である。
FIG. 21 shows a conversion unit 205 for converting the spatial motion amount obtained by the motion detection unit 204 into a motion pattern.
3 is a diagram for explaining the function of FIG.

【0125】この変換部205では、ある時刻(t)に
動作検出部204で検出された水平(左右)および垂直
(上下)の2方向の検出量(XtとYt)を組み合わせ
て、ベクトルテーブル206を参照し、動作ベクトル
(Vt、θt)に高速に変換する。なお、Vtは、ある
時刻(t)におけるそのベクトルの大きさ(基準ベクト
ルの倍数)を表し、θtはそのベクトルの方向を表す。
以下の説明では、空間での一連の動作を、速度ベクトル
あるいは加速度のベクトル列として扱う。また、空間操
作マウスを動かしたときの動作ベクトルの時系列の集合
全体を、動作ベクトル列(V{}、θ{})と呼ぶ。な
お、動作ベクトル列(V{}、θ{})は、((V1、
θ1)、(V2、θ2)、... 、(Vt、θt)、...
)といった動作ベクトルの時系列集合である。
The conversion unit 205 combines the detection amounts (Xt and Yt) in the two directions of horizontal (left and right) and vertical (up and down) detected by the motion detection unit 204 at a certain time (t) and combines them into the vector table 206. Is converted into a motion vector (Vt, θt) at high speed. Note that Vt represents the magnitude of the vector (a multiple of the reference vector) at a certain time (t), and θt represents the direction of the vector.
In the following description, a series of operations in space is treated as a velocity vector or acceleration vector sequence. In addition, the entire set of time series of motion vectors when the spatial operation mouse is moved is called a motion vector sequence (V {}, θ {}). The motion vector sequence (V {}, θ {}) is ((V1,
θ1), (V2, θ2), ..., (Vt, θt), ...
) Is a time series set of motion vectors.

【0126】次に、空間動作を、ベクトルテーブル20
6によって、動作ベクトルに変換する一例を説明する。
操作者の空間動作は、動作検出部204によって、例え
ば図22(a)のような2つの方向の動きXt,Ytに
分解して検出される。図22(b)のように、ある時刻
(t)に動作検出ステップで得られた水平方向の検出量
(例えばXt=2)と垂直方向の検出量(例えばYt=
3)は、予め検出量と動作ベクトルとの対応を示したベ
クトルテーブルによって、動作ベクトル((Vt、θ
t)=(V23、θ23))に変換される。図22(c)
に、動作ベクトル(V23、θ23)を表す。なお、動作ベ
クトルの大きさを得るためのベクトルテーブルには、基
準ベクトルの大きさ(n)を基準とした係数を登録す
る。
Next, the spatial motion is calculated by the vector table 20.
An example of conversion into a motion vector will be described with reference to FIG.
The spatial motion of the operator is detected by the motion detection unit 204 by being decomposed into motions Xt and Yt in two directions as shown in FIG. As shown in FIG. 22B, the detection amount in the horizontal direction (for example, Xt = 2) and the detection amount in the vertical direction (for example, Yt =) obtained in the motion detection step at a certain time (t).
3) is based on a motion vector ((Vt, θ
t) = (V23, θ23)). FIG. 22 (c)
Represents the motion vector (V23, θ23). A coefficient based on the size (n) of the reference vector is registered in the vector table for obtaining the size of the motion vector.

【0127】図23は、変換部205において変換され
た動作ベクトル列(V{}、θ{})を、予め登録され
た基本動作パターンと比較して、識別を行う識別部20
7の内部構成の一例である。図のように、単位ベクトル
処理部224と、ベクトル加算処理部225と、判定部
227を用いて構成される。ただし、単位ベクトル処理
部224とベクトル加算処理部225のいずれか一方の
みを有する構成を採用することも可能である。
FIG. 23 shows a discrimination unit 20 for discriminating by comparing the motion vector sequence (V {}, θ {}) converted by the conversion unit 205 with a basic motion pattern registered in advance.
7 is an example of an internal configuration of No. 7. As shown, the unit vector processing unit 224, the vector addition processing unit 225, and the determination unit 227 are used. However, it is also possible to adopt a configuration having only one of the unit vector processing unit 224 and the vector addition processing unit 225.

【0128】識別部207では、まず、動作ベクトル列
(V{}、θ{})を用いて単位ベクトル処理部224
による処理および/またはベクトル加算処理部225に
よる処理を行う。その結果を、予め登録された基本動作
パターンと動作ベクトル列マッチング処理部226にて
比較し、判定部227において動作ベクトル列に該当す
る基本動作パターンが存在するかを判定する。
In the identifying unit 207, first, the unit vector processing unit 224 is performed using the motion vector sequence (V {}, θ {}).
And / or the vector addition processing unit 225. The result is compared with a basic motion pattern registered in advance by the motion vector sequence matching processing unit 226, and the determination unit 227 determines whether or not there is a basic motion pattern corresponding to the motion vector sequence.

【0129】図24は、識別部207の単位ベクトル処
理部224による処理の流れ図である。ここでは、ある
時刻(t)の動作ベクトル(Vt、θt)は、そのベク
トルの大きさにかかわらず、ベクトルの方向(θ)の単
位ベクトルとして扱う。単位ベクトルを、原点を中心に
まとめたものを、単位ベクトル関数Sθと呼ぶ。
FIG. 24 is a flow chart of processing by the unit vector processing section 224 of the identification section 207. Here, the motion vector (Vt, θt) at a certain time (t) is treated as a unit vector in the vector direction (θ) regardless of the magnitude of the vector. A group of unit vectors centered on the origin is called a unit vector function Sθ.

【0130】単位ベクトル処理部224では、まず、こ
の単位ベクトル関数Sθを初期化する(ステップS22
8)。動作ベクトル列のデータを時系列に処理するため
に、tを1にセットする(ステップS229)。時刻t
におけるベクトルの方向θtをメモリから呼び出す(ス
テップS230)。
The unit vector processing section 224 first initializes the unit vector function Sθ (step S22).
8). In order to process the data of the motion vector sequence in time series, t is set to 1 (step S229). Time t
The direction θt of the vector at is called from the memory (step S230).

【0131】その方向のSθがそれまでの動作ベクトル
列に存在したか判定する(ステップS231)。もし、
存在していなければSθt を1にセットする(ステップ
S232)。
It is determined whether or not Sθ in that direction exists in the motion vector sequence up to that point (step S231). if,
If it does not exist, Sθt is set to 1 (step S232).

【0132】そして、tの値が動作ベクトル列の全サン
プル数より大きいかを判定する(ステップS233)。
もし小さければtの値に1を加え(ステップS23
4)、時刻tにおけるベクトルの方向θtをメモリから
呼び出すステップに戻る。
Then, it is determined whether the value of t is larger than the total number of samples of the motion vector sequence (step S233).
If smaller, add 1 to the value of t (step S23
4) Return to the step of calling the vector direction θt at time t from the memory.

【0133】そして、以降同様の処理を繰り返し、ステ
ップS233で、tの値が動作ベクトル列の全サンプル
数より大きくなれば、この処理を終了する。
Then, the same processing is repeated thereafter, and if the value of t becomes larger than the total number of samples of the motion vector sequence in step S233, this processing is ended.

【0134】この処理によって、操作者の動作による動
作ベクトルは、原点を中心とし、大きさを1とした単位
ベクトルの集合(単位ベクトル関数)として表される。
By this processing, the motion vector caused by the motion of the operator is represented as a set of unit vectors (unit vector function) centered on the origin and having a size of 1.

【0135】次に、単位ベクトル処理の具体例を説明す
る。
Next, a concrete example of the unit vector processing will be described.

【0136】図25(a)〜図25(c)は、単位ベク
トル処理の説明図である。例えば、図25(a)のよう
に空間で描かれた三角形状の動作ベクトル列(サンプル
数:6)は、個々の動作ベクトルの大きさは異なるが、
その方向はほぼ3方向によって構成される。この動作ベ
クトル列から単位ベクトル処理では、図25(b)のよ
うに各動作ベクトルのベクトルの方向(θ)のみに注目
し、原点からθ方向の単位ベクトルを得る処理を繰り返
し、動作ベクトル列のベクトルの方向の概要を得る(ス
テップS301〜S306)。この結果、図25(c)
のように、この三角形状の動作ベクトル列は、3方向の
単位ベクトルとして表される。
25 (a) to 25 (c) are explanatory views of the unit vector processing. For example, in a triangular motion vector string (the number of samples: 6) drawn in space as shown in FIG. 25A, the size of each motion vector is different,
The direction is composed of almost three directions. In this unit vector process from the motion vector sequence, attention is paid only to the vector direction (θ) of each motion vector as shown in FIG. 25B, and the process of obtaining the unit vector in the θ direction from the origin is repeated to obtain the motion vector sequence. An outline of the vector direction is obtained (steps S301 to S306). As a result, FIG. 25 (c)
As described above, this triangular motion vector sequence is represented as a unit vector in three directions.

【0137】これによって、ほぼ同じベクトルの方向か
ら構成される三角形は、その形状の大小や若干の変形に
かかわらず、同じ三角形として識別できる。あるいは、
空間で円を描いた場合は、数多くの単位ベクトルが得ら
れることによって識別できる。この他にも種々のパター
ンを識別することが可能である。
As a result, triangles composed of almost the same vector direction can be identified as the same triangle regardless of the size of the shape or slight deformation. Alternatively,
When a circle is drawn in space, it can be identified by obtaining many unit vectors. Other than this, it is possible to identify various patterns.

【0138】また、この単位ベクトル処理では、単位ベ
クトルの方向を、水平方向および垂直方向を含むいくつ
かの方向に分けておおまかに行ってもよい。さらに、単
位ベクトルの現れた順序の情報を用いることによって、
例えば、円の描かれた回転方向(右回り、左回り)を識
別するなど、より多くの動作パターンを取り扱うことが
できる。
In this unit vector processing, the direction of the unit vector may be roughly divided into several directions including the horizontal direction and the vertical direction. Furthermore, by using the information on the order in which the unit vectors appear,
For example, more motion patterns can be handled, such as identifying the rotation direction (clockwise or counterclockwise) in which a circle is drawn.

【0139】一方、図26は、識別部207のベクトル
加算処理部225による処理の流れ図である。ここで
は、原点を中心に、動作ベクトルの大きさを、そのベク
トルの方向毎に加算する。この加算の結果得られるベク
トル関数を、単位ベクトル処理における単位ベクトル関
数に対して、累積ベクトル関数Cθと呼ぶ。
On the other hand, FIG. 26 is a flow chart of processing by the vector addition processing section 225 of the identification section 207. Here, the magnitude of the motion vector is added centered on the origin for each direction of the vector. The vector function obtained as a result of this addition is called a cumulative vector function Cθ with respect to the unit vector function in the unit vector processing.

【0140】ベクトル加算処理部225では、まず、こ
の累積ベクトル関数Cθを初期化する(ステップS23
5)。動作ベクトル列のデータを時系列に処理するため
に、tを1にセットする(ステップS236)。時刻t
における動作ベクトル(vt、θt)をメモリから呼び
出す(ステップS237)。
The vector addition processing section 225 first initializes the cumulative vector function Cθ (step S23).
5). In order to process the data of the motion vector sequence in time series, t is set to 1 (step S236). Time t
The motion vector (vt, θt) at is called from the memory (step S237).

【0141】それまでの累積ベクトル関数Cθt-1 に、
方向(θt)で大きさ(vt)のベクトルを加える(ス
テップS238)。
In the cumulative vector function Cθt-1 so far,
A vector of size (vt) is added in the direction (θt) (step S238).

【0142】そして、tの値が動作ベクトル列の全サン
プル数より大きいかを判定する(ステップS239)。
もし小さければtの値に1を加え(ステップS24
0)、時刻tにおける動作ベクトル(Vt、θt)をメ
モリから呼び出すステップ(ステップS237)に戻
る。
Then, it is determined whether the value of t is larger than the total number of samples in the motion vector sequence (step S239).
If it is smaller, 1 is added to the value of t (step S24
0), and returns to the step (step S237) of calling the motion vector (Vt, θt) at time t from the memory.

【0143】そして、以降同様の処理を繰り返し、ステ
ップS239で、tの値が動作ベクトル列の全サンプル
数より大きくなれば、この処理を終了する。
Then, the same processing is repeated thereafter, and if the value of t becomes larger than the total number of samples of the motion vector sequence in step S239, this processing ends.

【0144】この処理によって、操作者の動作による動
作ベクトルは、原点を中心としたベクトルの集合(累積
ベクトル関数)として表される。この処理結果と予め登
録された基本動作パターンとを比較することにより、空
間動作パターンが形状や大きさなどの点で、基本操作パ
ターンと同じかあるいは異なるかを識別できる。
By this processing, the motion vector caused by the motion of the operator is represented as a set of vectors centered on the origin (cumulative vector function). By comparing this processing result with the basic operation pattern registered in advance, it is possible to identify whether the spatial operation pattern is the same as or different from the basic operation pattern in terms of shape, size and the like.

【0145】次に、加算ベクトル処理の具体例を説明す
る。
Next, a specific example of the addition vector process will be described.

【0146】図27(a)〜図27(c),図28
(a),図28(b)は、動作ベクトルの大きさを、そ
の方向毎に加算するベクトル加算処理を説明するための
図である。前述の単位ベクトル処理では、例えば、図2
7(a)と図28(a)のように空間で描かれた三角形
の形状は、それぞれ異なるにもかかわらず、ともに図2
5(c)のような結果が得られる。このような両者を区
別する必要がある際にベクトル加算処理は、効果的であ
る。例えば、図27(a)のように空間で描かれた三角
形状の動作ベクトル列(サンプル数:6)は、図27
(b)のように各動作ベクトルのベクトルの大きさ
(V)と方向(θ)に注目し、原点からベクトルの方向
毎にベクトルの大きさを加算する処理を繰り返し、動作
ベクトル列の全体構成を得る(ステップS311〜S3
16)。この結果、図27(c)のように、この三角形
状の動作ベクトル列は、3方向のほぼ同じ大きさのベク
トルとして表される。
27 (a) to 27 (c), FIG.
28A and 28B are diagrams for explaining a vector addition process for adding the magnitudes of motion vectors for each direction. In the unit vector processing described above, for example, as shown in FIG.
The shapes of the triangles drawn in space as shown in FIG. 7A and FIG.
A result like 5 (c) is obtained. The vector addition process is effective when it is necessary to distinguish the two. For example, a triangular motion vector string (sample number: 6) drawn in space as shown in FIG.
As shown in (b), paying attention to the vector size (V) and direction (θ) of each motion vector, repeating the process of adding the vector size for each vector direction from the origin, and constructing the entire motion vector sequence. Is obtained (steps S311 to S3
16). As a result, as shown in FIG. 27C, this triangular motion vector sequence is expressed as vectors having substantially the same size in the three directions.

【0147】同様に、図28(a)のように空間で描か
れた三角形状の動作ベクトル列(サンプル数:5)から
は、ベクトル加算処理により、図28(b)のような結
果が得られる。
Similarly, from the triangular motion vector sequence (number of samples: 5) drawn in space as shown in FIG. 28A, the result shown in FIG. 28B is obtained by the vector addition processing. To be

【0148】そして、図27(c)と図28(b)を比
較すると、動作ベクトルを構成している動作ベクトルの
大きさの割合が異なることから、入力された空間動作パ
ターンが互いに異なることが識別できる。
When comparing FIG. 27 (c) and FIG. 28 (b), the input spatial motion patterns are different from each other because the ratios of the sizes of the motion vectors forming the motion vectors are different. Can be identified.

【0149】なお、動作ベクトルの大きさは、基準ベク
トルの倍数として表されているので、予め変換テーブル
に記録されている係数を加算していくことにより、上記
ベクトル加算処理は容易になされる。また、このベクト
ル加算処理も、動作ベクトルの方向を水平方向および垂
直方向を含むいくつかの方向に分けて、おおまかに行っ
てもよい。
Since the magnitude of the motion vector is expressed as a multiple of the reference vector, the vector addition process is facilitated by adding the coefficients recorded in the conversion table in advance. Also, this vector addition process may be roughly performed by dividing the direction of the motion vector into several directions including the horizontal direction and the vertical direction.

【0150】次に、動作ベクトル列マッチング処理部2
26では、単位ベクトル処理部224の処理結果と予め
登録された基本動作パターンとの間のマッチング処理、
および/または、ベクトル加算処理部225の処理結果
と予め登録された基本動作パターンとの間のマッチング
処理を行い、判定部227において動作ベクトル列に該
当する基本動作パターンが存在するかを判定する。
Next, the motion vector string matching processing unit 2
26, a matching process between the processing result of the unit vector processing unit 224 and a basic motion pattern registered in advance,
And / or a matching process is performed between the processing result of the vector addition processing unit 225 and a basic motion pattern registered in advance, and the determination unit 227 determines whether or not there is a basic motion pattern corresponding to the motion vector sequence.

【0151】図29は、判定部227における処理の流
れの一例を示す図である。例えば、動作ベクトル列マッ
チング処理部226におけるマッチング処理により、い
くつかの識別候補の基本動作パターンとそれぞれとの類
似度(P)が得られるとき、類似度(P)が予め規定さ
れた類似度の基準値(Ref)より大きければ、判定部
227では、動作ベクトル列に対応する基本動作パター
ンが存在すると判定し、類似度の基準値(Ref)より
小さければ、動作ベクトル列に対応する基本動作パター
ンは存在しないと判定する。
FIG. 29 is a diagram showing an example of the flow of processing in the determination unit 227. For example, when the matching process in the motion vector sequence matching processing unit 226 can obtain the similarity (P) between the basic motion patterns of some identification candidates and the respective basic motion patterns, the similarity (P) is equal to the predetermined similarity. If it is larger than the reference value (Ref), the determining unit 227 determines that there is a basic motion pattern corresponding to the motion vector sequence, and if it is smaller than the similarity reference value (Ref), the basic motion pattern corresponding to the motion vector sequence. Is determined not to exist.

【0152】そして、この判定結果を基に、識別部20
7における類似度の大きさ等による認識を行う。その結
果に基づいて、実行部208では、動作パターンに対応
して登録されていた基本データによって、制御対象機器
の制御を実行する。
Then, based on this determination result, the identification unit 20
Recognition based on the degree of similarity in 7 is performed. Based on the result, the execution unit 208 executes control of the control target device with the basic data registered corresponding to the operation pattern.

【0153】ここで、図30(a)〜図30(e)に
は、単位ベクトル関数による動作ベクトル列の識別方法
の一例を示す。例えば、図30(a)のように空間で描
かれた三角形状の動作ベクトル列(サンプル数:6)か
ら図30(b)のような単位ベクトル関数Sθが得られ
たとき、この動作は3方向の単位ベクトルとして表され
る。この処理結果と予め登録された図30(c)〜図3
0(e)のような基本動作パターンを比較して識別を行
う。この動作は3方向の単位ベクトルとして表されてい
るので、識別候補の基本動作パターンは図30(d)と
図30(e)となる。
Here, FIGS. 30A to 30E show an example of a method of identifying a motion vector sequence by a unit vector function. For example, when a unit vector function Sθ as shown in FIG. 30B is obtained from a triangular motion vector sequence (sample number: 6) drawn in space as shown in FIG. Expressed as a unit vector of direction. This processing result and pre-registered FIGS.
Identification is performed by comparing basic operation patterns such as 0 (e). Since this motion is represented as a unit vector in three directions, the basic motion patterns of the identification candidates are as shown in FIGS. 30 (d) and 30 (e).

【0154】さらに、単位ベクトル関数のベクトルの方
向(θ1、θ2、θ3)の関係に注目して、 |θ1−θ2| |θ2−θ3| |θ3−θ1| などを計算する。
Further, paying attention to the relationship of the vector directions (θ1, θ2, θ3) of the unit vector function, | θ1-θ2 | | θ2-θ3 | | θ3-θ1 | and the like are calculated.

【0155】この計算を識別候補の基本動作パターン
(図30(d)と図30(e))に対しても行い、比較
するとベクトルの方向の構成から図30(d)の方の類
似度が大きくなる。このようにして、単位ベクトル関数
によって動作ベクトル列の識別ができる。また、 |θ1−θD1| |θ2−θD2| |θ3−θD3| などを計算することによって、類似度を増減すると識別
がより正確に行われる。
This calculation is also performed for the basic operation patterns (FIG. 30 (d) and FIG. 30 (e)) of the identification candidates, and a comparison shows that the similarity in FIG. 30 (d) is found from the configuration in the vector direction. growing. In this way, the motion vector sequence can be identified by the unit vector function. Further, by calculating | θ1-θD1 | | θ2-θD2 | | θ3-θD3 |, etc., if the degree of similarity is increased or decreased, the identification is performed more accurately.

【0156】このように、基準位置(原点)に対する空
間操作マウスの空間座標を測定しなくても、空間操作マ
ウスの動きを動作ベクトルを用いて時系列の微小基準ベ
クトル集合として相対的に得ることによって、動作パタ
ーン入力を行うことができる。
Thus, even without measuring the spatial coordinates of the spatial operation mouse with respect to the reference position (origin), the movement of the spatial operation mouse is relatively obtained as a time-series small reference vector set using the motion vector. Can input an operation pattern.

【0157】ここで、本実施例による動作パターン入力
のための処理の一例として、上述した単位ベクトル処理
や判定方法を用いたものについて、そのフローチャート
を図31に示す。
FIG. 31 is a flowchart showing an example of the process for inputting the motion pattern according to the present embodiment, which uses the above-described unit vector process and the determination method.

【0158】次に、本発明の動作ベクトル列マッチング
と従来のパターンマッチングの相違について説明する。
Next, the difference between the motion vector sequence matching of the present invention and the conventional pattern matching will be described.

【0159】図32(a)〜図32(g)は、本発明に
おける動作ベクトル列マッチングと従来のパターンマッ
チングとの相違を説明するための図である。例えば、操
作者が動作パターン“丸”に対応する制御を実行したい
ときに、正しくは図32(a)のように空間操作マウス
1を動かすべきであるところを、不安定な空間における
操作の結果、図32(b)のような軌跡の動作を行って
しまったものとする。このとき、従来のパターンマッチ
ング処理では、図32(c)のように得られた動作全体
の軌跡あるいはこの軌跡から得られる特長点の集合と、
図32(d)の予め登録されていた基本パターンの形状
との間のマッチングを行うため、このように不安定な操
作による入力の場合は、その類似度が小さくなってしま
う。したがって、従来のパターンマッチング処理では、
操作者により描かれた空間動作パターンを認識しきれな
い場合が多々生じると考えられる。一方、本発明におけ
る動作ベクトル列マッチング処理では、図32(e)の
ように操作者による空間操作マウス1の動きに基づき、
動作ベクトル列を生成し、例えば図32(f)のような
前記単位ベクトル処理の結果と予め登録されていた図3
2(g)のようなベクトルパターンとのマッチングを行
うため、不安定な操作による入力に対しても、その類似
度を大きくすることができる。つまり、動作ベクトル列
マッチングを用いることによって、不安定な空間での操
作も正しく認識することができる。
32 (a) to 32 (g) are diagrams for explaining the difference between the motion vector sequence matching in the present invention and the conventional pattern matching. For example, when the operator wants to execute the control corresponding to the motion pattern “circle”, the place where the spatial operation mouse 1 should be correctly moved as shown in FIG. It is assumed that the motion of the locus shown in FIG. 32 (b) has been performed. At this time, in the conventional pattern matching processing, the locus of the entire motion obtained as shown in FIG. 32C or a set of characteristic points obtained from this locus,
Since matching is performed with the shape of the basic pattern registered in advance in FIG. 32 (d), the degree of similarity becomes small in the case of such an unstable operation input. Therefore, in the conventional pattern matching process,
It is considered that there are many cases in which the spatial motion pattern drawn by the operator cannot be recognized. On the other hand, in the motion vector sequence matching process in the present invention, based on the movement of the spatial operation mouse 1 by the operator, as shown in FIG.
A motion vector sequence is generated, and the result of the unit vector processing as shown in FIG.
Since the matching with a vector pattern such as 2 (g) is performed, the degree of similarity can be increased even for an input by an unstable operation. That is, by using the motion vector sequence matching, it is possible to correctly recognize an operation in an unstable space.

【0160】ここで、図33に本実施例を適用したシス
テムの構成例を、図34にその入力動作例のフローチャ
ートをそれぞれ示す。
Here, FIG. 33 shows a configuration example of a system to which this embodiment is applied, and FIG. 34 shows a flow chart of an input operation example thereof.

【0161】図33のシステムは、空間マウス本体1、
動作検出部204、変換部205、ベクトルテーブル2
06、識別部207、基本動作パターン209、実行部
208、オブジェクト指定部210、オブジェクト記憶
部211、表示制御部212、表示部213を備えた構
成となっている。なお、ここでは、空間マウス本体1に
は、少なくとも前述の実施例で述べたような動き検出素
子が内蔵されているものとする。また、実行部208
は、すでに述べた機能に加えて、オブジェクト指定部2
10から与えられるコード等に対応する制御を実行す
る。実行部208は、表示制御部212および図示しな
い所望の制御対象に対して指定された制御を実行する。
The system shown in FIG. 33 has a space mouse body 1,
Motion detection unit 204, conversion unit 205, vector table 2
06, an identification unit 207, a basic operation pattern 209, an execution unit 208, an object designation unit 210, an object storage unit 211, a display control unit 212, and a display unit 213. In addition, here, it is assumed that the spatial mouse body 1 has at least the motion detecting element as described in the above-described embodiment. Also, the execution unit 208
In addition to the functions already mentioned,
The control corresponding to the code given from 10 is executed. The execution unit 208 executes the designated control for the display control unit 212 and a desired control target (not shown).

【0162】このシステムは、図示しない制御回路によ
り、画面に表示されたオブジェクトを指示するためのい
わゆるポインティング・デバイスとして用いるモード
(ここでは、オブジェクト指示モードと言う)と、前述
した動作パターンによる入力モード(ここでは、動作パ
ターン入力モードと言う)とを切り替えて利用すること
ができる。
In this system, a control circuit (not shown) is used as a so-called pointing device for pointing an object displayed on the screen (herein referred to as an object pointing mode), and an input mode based on the above-mentioned operation pattern. (Here, it is called an operation pattern input mode) can be switched and used.

【0163】すでに述べたように、動作パターン入力モ
ードは、空間マウス本体1、動作検出部204、変換部
205、ベクトルテーブル206、識別部207、基本
動作パターン209、実行部208によって実現され
る。
As described above, the motion pattern input mode is realized by the spatial mouse body 1, the motion detection unit 204, the conversion unit 205, the vector table 206, the identification unit 207, the basic motion pattern 209, and the execution unit 208.

【0164】また、オブジェクト指示モードは、空間マ
ウス本体1、オブジェクト指定部210、オブジェクト
記憶部211、表示制御部212、表示部213、実行
部208によって、実現される。オブジェクト指定部2
10は、表示制御部212に適宜オブジェクトを表示部
213の画面上に表示させる機能、空間マウス本体1の
動きを検出した結果を表示制御部212に与えて表示部
213の画面上のカーソルを移動させる機能、および空
間マウス本体1の指示に応答して選択されたオブジェク
トあるいはそれに対応するコードを実行部208または
(選択されたオブジェクトに対応する機能が画面制御に
関するものである場合)表示制御部212に出力する機
能を有する。オブジェクト記憶部211には、各種オブ
ジェクトの情報およびそれらに対応付けられた機能を示
すコード等が格納されている。
The object designating mode is realized by the space mouse body 1, the object designating section 210, the object storing section 211, the display control section 212, the display section 213, and the executing section 208. Object specification part 2
10 is a function of causing the display control unit 212 to appropriately display an object on the screen of the display unit 213, and gives the result of detecting the movement of the spatial mouse body 1 to the display control unit 212 to move the cursor on the screen of the display unit 213. And the execution unit 208 or the display control unit 212 (when the function corresponding to the selected object is related to screen control) for the selected object or the code corresponding thereto in response to the instruction of the spatial mouse body 1. It has a function to output to. The object storage unit 211 stores information on various objects and codes indicating the functions associated with them.

【0165】上記構成において、まず、ユーザーまたは
システムによって入力モードが設定される。
In the above structure, first, the input mode is set by the user or the system.

【0166】動作パターン入力モードが設定されると
(ステップS402)、ユーザーは空間操作マウス本体
を握って空間に動作パターンを描くことにより、入力す
ることが可能となる(ステップS403)。ステップS
404でこの動きが検出され、ステップS405で動作
ベクトル列が生成され、ステップ406で単位ベクトル
処理等を用いて動作の識別判定が行われる。そして、ス
テップS407で対応する制御が実行される。
When the motion pattern input mode is set (step S402), the user can input by holding the space operation mouse body and drawing a motion pattern in the space (step S403). Step S
This motion is detected in 404, a motion vector sequence is generated in step S405, and motion identification determination is performed using unit vector processing or the like in step 406. Then, in step S407, the corresponding control is executed.

【0167】入力モードを終了する場合はステップS4
08で終了し、入力モードを変更する場合は、ステップ
S409からステップS410に移る。
To end the input mode, step S4
If the input mode is to be changed at 08, the process proceeds from step S409 to step S410.

【0168】一方、オブジェクト指示入力モードが設定
されると(ステップS410)、ユーザーは空間操作マ
ウス本体を握って、画面上に表示されたカーソルを所望
のオブジェクトの上に移動させ、指示入力することが可
能となる(S411)。ステップS412で指示された
オブジェクトに対応する制御が実行される。
On the other hand, when the object instruction input mode is set (step S410), the user grasps the body of the spatial operation mouse and moves the cursor displayed on the screen to the desired object to input an instruction. Is possible (S411). The control corresponding to the object instructed in step S412 is executed.

【0169】入力モードを終了する場合はステップS4
13で終了し、入力モードを変更する場合は、ステップ
S414からステップS402に移る。
When ending the input mode, step S4
If the input mode is to be changed at step S13, the process proceeds from step S414 to step S402.

【0170】次に、操作者の意図に反する動きを補正す
る処理について説明する。
Next, the process of correcting a movement contrary to the operator's intention will be described.

【0171】図35(a)〜図35(d)は、動作検出
部204において検出された検出量を補正する補正部を
説明するための図である。操作者が、空間操作マウスの
水平方向や垂直方向を、表示画面の水平方向や垂直方向
とを合わせて、手に持っていないと、カーソルは空間で
の手の動きとは異なる方向へ移動する。例えば、空間操
作マウスを正規の向きと上下逆に持っていると、手の動
きとカーソルの動きは180度違ってしまう。このよう
な場合は、操作者は、表示画面上のカーソルの動きを目
視できるため、すぐに空間操作マウスの水平方向や垂直
方向と、表示画面の水平方向や垂直方向とが合っていな
いことが容易に分かる。従って、すぐに空間操作マウス
持ち直すことによって、これ以降は快適な操作が可能と
なる。
FIGS. 35 (a) to 35 (d) are diagrams for explaining a correction unit for correcting the detection amount detected by the motion detection unit 204. As shown in FIG. If the operator does not hold the horizontal or vertical direction of the space operation mouse with the horizontal or vertical direction of the display screen in the hand, the cursor moves in a direction different from the movement of the hand in space. . For example, if the space operation mouse is held upside down with respect to the normal direction, the movement of the hand and the movement of the cursor are different by 180 degrees. In such a case, since the operator can visually check the movement of the cursor on the display screen, the horizontal or vertical direction of the space operation mouse may not immediately match the horizontal or vertical direction of the display screen. Easy to understand. Therefore, if the space operation mouse is immediately picked up again, comfortable operation can be performed thereafter.

【0172】しかしながら、空間操作マウスを動かして
いる途中で、(人間の手や腕の機能に起因して)無意識
に手首のひねり等による回転が加わることによって、手
の動きとカーソルの動く方向とが違ってしまうことが生
じ得る。つまり、腕は所望の方向に動いているのに、空
間操作マウス本体1が回転しながら動いた場合は、操作
者は案外その原因に気付かないので、その結果として、
使い勝手が良くない入力機器であるという印象をもたれ
かねない。例えば、操作者が、図35(a)の表示画面
203に表示されているカーソル235を、座標(X0
、Y0 )から座標(X1 、Y1 )に水平に右方向へ移
動させたい場合を考える。この場合、操作者が空間操作
マウスに手首のひねり等を加わえて動かしてしまうと、
空間操作マウスは図35(b),図35(c),図35
(d)に示す順に回転していく。その結果、カーソル2
35は、図35(a)の座標(XA 、YA )から座標
(XB、YB )、そして座標(XC 、YC )というよう
に、異なる方向に移動してしまう。
However, while the spatial control mouse is being moved, unintentional rotation (due to the function of the human hand or arm) such as the twist of the wrist is added to change the hand movement and the cursor movement direction. Can be different. In other words, if the arm moves in a desired direction but the space operation mouse body 1 moves while rotating, the operator unexpectedly does not notice the cause, and as a result,
You may get the impression that the input device is not very user-friendly. For example, the operator moves the cursor 235 displayed on the display screen 203 of FIG.
, Y0) to the coordinates (X1, Y1) horizontally to the right. In this case, if the operator moves the spatial operation mouse with a twist of the wrist,
The space operation mouse is shown in FIGS. 35 (b), 35 (c) and 35.
It rotates in the order shown in (d). As a result, cursor 2
35 moves in different directions from the coordinates (XA, YA) to the coordinates (XB, YB) to the coordinates (XC, YC) in FIG.

【0173】そこで、図36のように、水平方向動き検
出素子2および垂直方向動き検出素子3の両方に直交す
る方向(すなわち前後方向)に回転量検出素子236を
設置し、その回転検出量に応じて、水平方向や垂直方向
の速度あるいは加速度等の動作量の検出軸方向への成分
の分配を補正する。
Therefore, as shown in FIG. 36, the rotation amount detecting element 236 is installed in a direction (that is, the front-back direction) orthogonal to both the horizontal direction motion detecting element 2 and the vertical direction motion detecting element 3, and the rotation detection amount is determined. Accordingly, the distribution of the component of the motion amount such as the velocity or acceleration in the horizontal direction or the vertical direction in the detection axis direction is corrected.

【0174】図37は、図2の空間操作マウスに、回転
量検出部237と補正部238をさらに設けた空間操作
マウスの概略ブロック図である。操作者による空間操作
マウスの動きは、動き検出部16a、16bにおいて、
所定の動き信号、例えば空間操作マウスの速度あるいは
移動距離等を表す信号に変換されるが、そのときに回転
量検出部237によって得られた量に基づいて、水平
(左右)および垂直(上下)の2方向の動き量の成分
を、補正部238で補正する。
FIG. 37 is a schematic block diagram of the spatial operation mouse in which the rotation amount detection unit 237 and the correction unit 238 are further provided in the spatial operation mouse of FIG. The movement of the spatial operation mouse by the operator is detected by the movement detection units 16a and 16b.
It is converted into a predetermined motion signal, for example, a signal representing the speed or movement distance of the spatial operation mouse. Based on the amount obtained by the rotation amount detection unit 237 at that time, horizontal (left and right) and vertical (up and down) The component of the movement amount in the two directions is corrected by the correction unit 238.

【0175】これによって、空間操作マウスのポインテ
ィング・デバイスとしての性能を向上できるとともに、
動作パターン入力を正確に行える。
As a result, the performance of the spatial operation mouse as a pointing device can be improved, and
The operation pattern can be input accurately.

【0176】図38(a)、図38(b)は、補正部2
38での処理を説明するための図である。手首のひねり
等による回転によって、空間操作マウスの水平方向や垂
直方向と、表示画面の水平方向や垂直方向とがずれてい
るときに、動き検出部16a、16bで検出された検出
量を、水平方向(x’)、垂直方向(y’)とする。一
方、ずれていないときの検出量を、水平方向(x)、垂
直方向(y)とする。同様に、ずれているときの動作ベ
クトルの方向を(θ’)とし、ずれていないときの動作
ベクトルの方向を(θ)とする。また、回転量検出部2
37によって得られた量を(θm)とする。
38 (a) and 38 (b) show the correction unit 2
It is a figure for demonstrating the process in 38. When the horizontal direction or the vertical direction of the spatial operation mouse is deviated from the horizontal direction or the vertical direction of the display screen due to the rotation due to the twist of the wrist or the like, the detection amount detected by the motion detecting units 16a and 16b is set to The direction (x ') and the vertical direction (y'). On the other hand, the detection amount when there is no deviation is set to the horizontal direction (x) and the vertical direction (y). Similarly, the direction of the motion vector when there is a deviation is (θ ′), and the direction of the motion vector when there is no deviation is (θ). In addition, the rotation amount detection unit 2
The amount obtained by 37 is (θm).

【0177】すると、図38(a)のように、正しくは
(θ)方向に動かすとき、手首のひねり等による回転に
よって(θm)だけずれると、図38(b)のように動
作ベクトルの方向は(θ’)として得られてしまう。つ
まり、 θ’=θ+θm x’=V・cosθ’ y’=V・sinθ’ となる。よって、動作ベクトルの大きさ(V)と、誤っ
て得られている動作ベクトルの方向(θ’)と、回転量
検出部237によって得られた量(θm)を用いて、 θ=θ’−θm x=V・cos(θ’−θm) y=V・sin(θ’−θm) として、動作量の検出軸方向への成分分配を補正するこ
とができる。
Then, as shown in FIG. 38 (a), when properly moving in the (θ) direction, if the position shifts by (θm) due to the rotation of the wrist, the direction of the motion vector becomes as shown in FIG. 38 (b). Is obtained as (θ '). That is, θ ′ = θ + θmx ′ = V · cos θ ′ y ′ = V · sin θ ′. Therefore, using the magnitude (V) of the motion vector, the direction (θ ′) of the motion vector that is erroneously obtained, and the amount (θm) obtained by the rotation amount detection unit 237, θ = θ′− The component distribution of the motion amount in the detection axis direction can be corrected by setting θmx = V · cos (θ′−θm) y = V · sin (θ′−θm).

【0178】次に、本実施例の空間動作パターン入力シ
ステムの機能を、2次元動作パターンから3次元動作パ
ターンへ拡張することについて説明する。
Next, expanding the function of the spatial motion pattern input system of this embodiment from a two-dimensional motion pattern to a three-dimensional motion pattern will be described.

【0179】ここまでは、2軸方向の動き検出について
記述してきたが、本発明はこれに限定されず、図39の
ように空間操作マウスからみて前後方向240に対応す
る前後方向動き検出素子239を設けて、3次元の動き
による空間動作パターン入力ができるように拡張でき
る。
Up to this point, the movement detection in the two-axis directions has been described, but the present invention is not limited to this, and the front-back movement detection element 239 corresponding to the front-back direction 240 as seen from the spatial operation mouse as shown in FIG. Can be provided so that the spatial motion pattern can be input by three-dimensional motion.

【0180】図40は、3次元の動きによる動作パター
ン入力方法の一例を示したもので、操作者が空間操作マ
ウス1を、aからb、c、d、e、fと三角錘の形状に
動かすことにより、表示装置202の表示画面203に
三角錘を描くことができる。
FIG. 40 shows an example of a method of inputting a motion pattern by three-dimensional movement. The operator changes the spatial operation mouse 1 from a to b, c, d, e, f into a triangular pyramid shape. By moving, a triangular pyramid can be drawn on the display screen 203 of the display device 202.

【0181】このような3次元空間での動作ベクトル
は、図41(a)に示すように、ベクトルの大きさ
(V)とその方向(θ、φ)を用いて表す。また、図4
1(b)に、3次元空間での3次元動作を動作ベクトル
に変換する際に参照する、ベクトルテーブルの一例を示
す。
The motion vector in such a three-dimensional space is represented by the magnitude (V) of the vector and its direction (θ, φ) as shown in FIG. 41 (a). Also, FIG.
1 (b) shows an example of a vector table that is referred to when converting a three-dimensional motion in a three-dimensional space into a motion vector.

【0182】このベクトルテーブルを利用し、すでに説
明した2次元の空間動作パターン入力と同様な処理を行
えば、3次元の空間動作パターンによる入力を行うこと
ができる。
By using this vector table and performing the same processing as the two-dimensional spatial motion pattern input already described, it is possible to input the three-dimensional spatial motion pattern.

【0183】次に、空間動作パターン入力モードのON
/OFF操作について説明する。
Next, the spatial motion pattern input mode is turned on.
The / OFF operation will be described.

【0184】通常の空間操作マウスによる制御対象機器
に対する主操作は、手の動きに合わせて表示画面上のカ
ーソルを移動させる操作であろう。この操作は、いわゆ
るポインタ機能の実現である。そこで、空間操作マウス
によって、ポインタ機能モードなどから動作パターン入
力を行うモードに入るには、以下のようなモード変更の
ための操作が必要となる。例えば、(1)表示画面上の
ある位置(各種ツールが選択できる領域、あるいはメニ
ューを選択する領域など)にカーソルを合わせる、
(2)動作パターン入力開始ボタンを押す、(3)上下
に数回振る等の予め決めていた簡単な動きを行うことな
どが考えられる。
[0184] The main operation for the control target device by the normal spatial operation mouse is an operation of moving the cursor on the display screen in accordance with the movement of the hand. This operation realizes a so-called pointer function. Therefore, in order to enter the operation pattern input mode from the pointer function mode or the like with the spatial operation mouse, the following operation for changing the mode is required. For example, (1) Move the cursor to a certain position on the display screen (area where various tools can be selected, or area where a menu is selected).
It is conceivable to perform a predetermined simple movement such as (2) pressing the operation pattern input start button or (3) shaking up and down several times.

【0185】また、このモードからポインタ機能モード
などに戻るときにも、何らかの操作あるいは予め規定し
たルールが必要となる。例えば、(1)ある程度の時間
が経つと強制的に出ると規定しておく、(2)静止状態
(動き量が検出されてない状態)を判定する、(3)動
作パターン入力用ボタンを放す(または再度押す)など
が考えられる。
Also, when returning from this mode to the pointer function mode or the like, some operation or a predetermined rule is required. For example, (1) stipulate that it will be forced to come out after a certain period of time, (2) determine a stationary state (a state in which no amount of motion is detected), (3) release the operation pattern input button. (Or press again) is possible.

【0186】さらに、動作パターン入力モードに入って
いる時のカーソルの取扱いによって、制御動作実行後の
操作性が変わってくるので、アプリケーションに応じ
て、以下のようにすることが考えられる。(1)カーソ
ルを表示画面上から消去する。ただし、動作パターン入
力モードに入った時の表示画面上の座標は保持してお
く。これにより、このモードから出るとカーソルが動作
パターン入力モードに入った時の位置に再度出現するの
で、ツールの選択等を実行後にその場所から作業を続け
られる。(2)通常通りに空間操作マウスの動きに合わ
せてカーソルが表示画面上を移動する。これにより、操
作者が目視によるフィードバックをかけられるので正確
な動作が入力できる。(3)動作パターン入力モードに
入っていることが一目瞭然に理解できるような形状にカ
ーソルを変化させる。なお、これらのうちのいくつかを
組み合わせても良い。
Further, since the operability after executing the control operation changes depending on the handling of the cursor when in the operation pattern input mode, the following can be considered depending on the application. (1) Delete the cursor from the display screen. However, the coordinates on the display screen when the operation pattern input mode is entered are retained. As a result, when the cursor is exited from this mode, the cursor reappears at the position where the operation pattern input mode was entered, so that the operation can be continued from that position after executing the tool selection and the like. (2) As usual, the cursor moves on the display screen according to the movement of the spatial operation mouse. As a result, the operator can give visual feedback, so that an accurate operation can be input. (3) The cursor is changed to a shape that makes it easy to understand that the operation pattern input mode is entered. In addition, you may combine some of these.

【0187】また、通常は、図42(a)のような矢印
形(あるいは十字形など)のカーソル235を、動作パ
ターン入力によって認識された結果によって、図42
(b)のように変形させると、正しく動作パターン入力
が行われたかを操作者が簡単に理解できる。また、これ
と同時に、動作パターン入力毎に確認のための画面表示
(例えば「今の動作は、〜ですか?」)と操作者による
了解操作(「はい」あるいは「いいえ」)を省いて、次
の操作へスムーズに移ることが出来る。図42(c)
に、認識結果によるカーソルの形状の変形例を示す。
Further, normally, an arrow-shaped (or cross-shaped etc.) cursor 235 as shown in FIG. 42A is recognized as a result of being recognized by inputting an operation pattern.
When the deformation is performed as shown in (b), the operator can easily understand whether the operation pattern is correctly input. At the same time, omitting the screen display for confirmation (for example, "What is the current action?") And the operator's consent operation ("Yes" or "No") for each operation pattern input, You can move smoothly to the next operation. FIG. 42 (c)
Shows a modification of the cursor shape depending on the recognition result.

【0188】さらに、空間での操作は不安定な面がある
ので、直線状にカーソルを移動させたいときなども、ま
ず動作パターンによって移動させたい方向を認識させて
カーソルの形状をその方向を示す形に変えて、それ以降
はその方向だけにカーソルを制御できるようにすればよ
い。
Further, since the operation in the space has an unstable surface, even when the cursor is to be moved linearly, the direction of the cursor to be moved is first recognized by the operation pattern and the shape of the cursor is indicated. It just needs to be transformed into a shape so that the cursor can be controlled only in that direction after that.

【0189】以上詳述したように、本実施例によれば、
任意の平面でのポインタ動作さらには空間的なポインタ
動作を可能とした、空間操作マウスのような3次元入力
装置を用いるシステムにおいて、操作者の空間での動作
パターンを認識して、コンピュータやマルチメディア機
器の制御を実行できる、感覚的なマン・マシンインタフ
ェイス環境を実現できる。
As described above in detail, according to this embodiment,
In a system using a three-dimensional input device such as a spatial operation mouse that enables a pointer operation on an arbitrary plane and further a spatial pointer operation, a computer or a multi-computer is recognized by recognizing an operation pattern in an operator's space. It is possible to realize a sensible man-machine interface environment that can control media devices.

【0190】図43は、第5の実施例に係る空間操作マ
ウスの概略構成図である。この空間操作マウスは、前述
の実施例に係る空間操作マウスと基本的な構成・動作は
同じである。ただし、前後方向の動きを検出するための
動き検出素子7をさらに備えた点が異なる。
FIG. 43 is a schematic configuration diagram of the spatial operation mouse according to the fifth embodiment. This spatial operation mouse has the same basic configuration and operation as the spatial operation mouse according to the above-described embodiment. However, the difference is that a motion detection element 7 for detecting the motion in the front-back direction is further provided.

【0191】すなわち、本発明は2軸方向の動き検出に
のみ限定されるものではなく、本実施例のように3軸方
向に対応する動き検出部2,3,7を設けて、3次元空
間での動きを検出するように拡張することができる。
That is, the present invention is not limited to the motion detection in the two-axis directions, and the motion detection units 2, 3 and 7 corresponding to the three-axis directions are provided as in the present embodiment, and the three-dimensional space is provided. It can be extended to detect movement in.

【0192】通常の表示画面は2次元表示であるので、
画面上のカーソル位置を特定するには、第1の実施例の
ように2軸分の動き検出部2,3を設ければ十分である
が、本実施例の3軸方向の動きを検出できる空間操作マ
ウスを、昨今盛んに用いられるようになってきているの
種々の疑似的な3次元表示を有するシステムのために、
ポインティング・デバイスとして活用すれば、非常に効
果的である。
Since a normal display screen is a two-dimensional display,
In order to specify the cursor position on the screen, it is sufficient to provide the movement detecting units 2 and 3 for two axes as in the first embodiment, but the movement in the three axes of this embodiment can be detected. For the system having various pseudo three-dimensional displays, which are becoming popularly used recently,
It is very effective when used as a pointing device.

【0193】また、3番目の軸方向の動きに、特別な役
割を与えることも可能である。例えば、3番目の軸方向
の(仮想的な)位置によって、空間操作マウスの1番目
や2番目の軸方向の移動量に対する画面上のカーソルの
移動量の比が決定されるようにすることもできる。
It is also possible to give a special role to the movement in the third axial direction. For example, the ratio of the movement amount of the cursor on the screen to the movement amount of the spatial operation mouse in the first or second axial direction may be determined by the third (virtual) position in the axial direction. it can.

【0194】3番目の軸の動作の検出としては、動き検
出部7を設けて平行移動を検出する代わり、図9の圧電
ジャイロを用いて軸の回りの回転を検出するようにして
も良い。
As the detection of the movement of the third axis, the rotation around the axis may be detected by using the piezoelectric gyro shown in FIG. 9, instead of detecting the parallel movement by providing the movement detecting section 7.

【0195】一方、前述の第3の実施例に係る空間操作
マウスにおいて、パターン入力に用いる基本動作パター
ンとして、3次元空間での動作を用いることも可能であ
る。
On the other hand, in the spatial operation mouse according to the third embodiment described above, it is also possible to use an operation in a three-dimensional space as a basic operation pattern used for pattern input.

【0196】もちろん、さらに拡張して4軸以上の検出
部を設けても良い。
Needless to say, it may be further expanded to provide a detection unit having four or more axes.

【0197】この場合、2軸にポインティング・デバイ
スとしての役割を与え、他の軸に動作パターン入力の役
割を与えても良い。
In this case, the two axes may be given a role as a pointing device, and the other axes may be given a role of inputting an operation pattern.

【0198】このように、本発明によれば、任意の仮想
平面でのポインタ動作、さらには空間的なポインタ動作
を可能とし、また操作者の動作を認識し、コンピュータ
やマルチメディア器機あるいはその表示装置から離れて
いても手軽にポインタ操作や制御操作を可能にする空間
操作マウスを提供するができる。
As described above, according to the present invention, it is possible to perform a pointer operation on an arbitrary virtual plane, and further, a spatial pointer operation, recognize an operator's operation, and display a computer or a multimedia device or its display. It is possible to provide a spatial operation mouse that enables easy pointer operation and control operation even if the mouse is away from the device.

【0199】図44は、第6の実施例に係る空間操作マ
ウスの概略構成図を示す。この空間操作マウスは、前述
の実施例と基本的な構成・動作は同じである。水平方向
動き検出素子2と垂直方向動き検出素子3で空間操作マ
ウス本体1の2次元方向の動きを検出し、クリックボタ
ン4でクリック操作を受け付ける。
FIG. 44 is a schematic block diagram of a spatial operation mouse according to the sixth embodiment. This spatial operation mouse has the same basic configuration and operation as the above-described embodiment. The horizontal motion detecting element 2 and the vertical motion detecting element 3 detect the two-dimensional movement of the spatial operation mouse body 1, and the click button 4 accepts a click operation.

【0200】ここで、本実施例においては、空間操作マ
ウスと制御対象機器は接続ケーブル8を用いて接続す
る。接続は、空間操作マウスの接続ケーブル8の端部の
コネクタ9を制御対象機器に差し込むことによって行わ
れる。空間操作マウスからの出力信号は、接続ケーブル
8を伝わり、制御対象機器に入力される。
Here, in this embodiment, the spatial operation mouse and the control target device are connected using the connection cable 8. The connection is performed by inserting the connector 9 at the end of the connection cable 8 of the space operation mouse into the device to be controlled. The output signal from the space operation mouse is transmitted through the connection cable 8 and input to the control target device.

【0201】空間操作マウスをワイヤレスにすること
が、そのシステムにとって必要でない場合には、この有
線の空間操作マウスを用いれば、赤外線方式のように伝
送方向の指向性を考慮する必要なく、制御信号の伝送を
極めて確実に実行できる。
When it is not necessary for the system to make the space operation mouse wireless, this wired space operation mouse can be used without the need to consider the directivity of the transmission direction as in the infrared method. Transmission can be performed very reliably.

【0202】以上、本発明について、種々の実施例を用
いて説明してきたが、空間操作マウスの形状は、必ずし
も従来のいわゆるマウスのような形状である必要はな
く、目的・用途に応じて、種々の形状にして使用するこ
とが可能である。
Although the present invention has been described with reference to various embodiments, the shape of the spatial operation mouse does not necessarily have to be the shape of a conventional so-called mouse, but may be changed depending on the purpose and use. It is possible to use it in various shapes.

【0203】また、必ずしも手に握って操作する必要は
なく、操作者が直接あるいは間接的に用いる他の装置あ
るいは道具に装着あるいは内蔵するように構成すること
も可能である。
Further, it is not always necessary to hold it in the hand for the operation, and the operator may directly or indirectly mount it on another device or tool for use, or may be built in.

【0204】あるいは、この空間操作マウスに音声入力
等の他の入力手段を設ければ、さらにバリエーションに
富む操作環境を提供することができる。
Alternatively, if this spatial operation mouse is provided with other input means such as voice input, it is possible to provide a more varied operation environment.

【0205】クリックボタンについては、設ける個数は
任意であり、また、その形状も様々の変形が考えられ
る。
The number of click buttons provided is arbitrary, and the shape thereof can be variously modified.

【0206】なお、前述の各実施例において、空間操作
マウス内部の回路は、可能な限り1チップに集積化する
と好ましい。
In each of the above-mentioned embodiments, it is preferable that the circuit inside the spatial operation mouse is integrated into one chip as much as possible.

【0207】また、本発明は上述した各実施例に限定さ
れるものではなく、その要旨を逸脱しない範囲で、種々
変形して実施することができる。
Further, the present invention is not limited to the above-mentioned respective embodiments, and various modifications can be carried out without departing from the scope of the invention.

【0208】[0208]

【発明の効果】以上詳述したように、本発明では、2次
元方向または3次元方向の加速度または角速度から空間
操作マウスの動きを検出する動き検出手段を設けてあ
る。
As described above in detail, the present invention is provided with the motion detecting means for detecting the motion of the spatial operation mouse from the acceleration or the angular velocity in the two-dimensional direction or the three-dimensional direction.

【0209】このために、任意の操作空間で操作者の意
図する動作を空間操作マウスで検出でき、また送信手段
により制御対象機器に容易に制御信号を伝送することが
できる。さらに、制御対象機器の表示画面上のカーソル
または表示オブジェクトの変化により操作者の指示位置
を表示したり、表示画面の方向を変化させることで、従
来にない操作の容易なヒューマンインターフェイス環境
を実現できる。
Therefore, the operation intended by the operator can be detected by the spatial operation mouse in an arbitrary operation space, and the control signal can be easily transmitted to the controlled device by the transmitting means. Furthermore, by displaying the pointing position of the operator or changing the direction of the display screen by changing the cursor or the display object on the display screen of the controlled device, it is possible to realize an unprecedented human interface environment with easy operation. .

【0210】あるいは、予め操作者の動作を登録してあ
る動作パターン記憶手段を設け、操作動作パターンを識
別することで人間の自然な動作を用いて制御する入力手
段を実現できる。
Alternatively, it is possible to realize the input means for controlling by using a natural human motion by providing the motion pattern storage means in which the motion of the operator is registered in advance and identifying the operation motion pattern.

【0211】さらには、操作者の手振れの周波数を除去
する帯域制限フィルタを設け、手振れによるポインティ
ング動作を正確にすることができる。
Further, by providing a band limiting filter for removing the frequency of the hand shake of the operator, the pointing operation due to the hand shake can be made accurate.

【0212】一方、本発明に係る空間動作パターン入力
方法では、操作者が空間操作マウスを操作することによ
り入力された空間動作パターンの動きを検出して動作ベ
クトル列(相対的な時系列の微小基準ベクトル集合)に
変換し、予め登録されている基本動作パターンに対応し
た動作ベクトル列と当該動作ベクトル列とを比較して識
別を行い、この認識結果に基づく制御を制御対象機器に
対して実行する。
On the other hand, in the spatial motion pattern input method according to the present invention, the motion of the spatial motion pattern input by the operator operating the spatial operation mouse is detected to detect the motion vector sequence (relative time series minute Reference vector set), and compares the motion vector sequence corresponding to the pre-registered basic motion pattern with the motion vector sequence for identification, and executes control based on this recognition result for the control target device. To do.

【0213】したがって、基準位置(原点)に対する空
間操作マウスの空間座標を測定することなく、動作パタ
ーン入力を高精度に行うことができる。
Therefore, the operation pattern can be input with high accuracy without measuring the spatial coordinates of the spatial operation mouse with respect to the reference position (origin).

【0214】このように、本発明によれば、人間の自然
な動作を用いて、制御対象機器を制御することが可能と
なる。
As described above, according to the present invention, it is possible to control the device to be controlled by using a natural human motion.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係る空間操作マウスの
概略構成図
FIG. 1 is a schematic configuration diagram of a spatial operation mouse according to a first embodiment of the present invention.

【図2】本発明の第1の実施例に係る空間操作マウスの
概略ブロック図
FIG. 2 is a schematic block diagram of a spatial operation mouse according to the first embodiment of the present invention.

【図3】図1のマウスを用いた空間操作型コンピュータ
システムの使用概念図
FIG. 3 is a conceptual diagram of use of the spatial operation type computer system using the mouse of FIG.

【図4】図3のコンピュータの表示画面およびポインテ
ィング操作の説明図
FIG. 4 is an explanatory diagram of a display screen and pointing operation of the computer shown in FIG.

【図5】図3のコンピュータの表示画面およびポインテ
ィング操作の他の説明図
5 is another explanatory diagram of the display screen and pointing operation of the computer of FIG.

【図6】図3のコンピュータの表示画面およびポインテ
ィング操作のさらに他の説明図
6 is still another explanatory diagram of the display screen and pointing operation of the computer of FIG.

【図7】本発明の第1の実施例に係る空間操作マウスお
よび制御対象器機のブロック図
FIG. 7 is a block diagram of a spatial operation mouse and a control target device according to the first embodiment of the present invention.

【図8】加速度および速度にそれぞれ対応する電圧波形
図、ならびに速度とパルス密度の関係を示す図
FIG. 8 is a voltage waveform diagram corresponding to acceleration and velocity, and a diagram showing a relation between velocity and pulse density.

【図9】圧電振動ジャイロを用いた角速度検出部の構成
FIG. 9 is a configuration example of an angular velocity detection unit using a piezoelectric vibration gyro.

【図10】手振れ補正部を設けた空間操作マウスの概略
ブロック図
FIG. 10 is a schematic block diagram of a spatial operation mouse provided with a camera shake correction unit.

【図11】本発明の第2の実施例に係る空間操作マウス
の概略構成図
FIG. 11 is a schematic configuration diagram of a spatial operation mouse according to a second embodiment of the present invention.

【図12】図11のマウスを用いた空間操作型映像シス
テムの使用概念図
12 is a conceptual diagram of use of the spatial operation type video system using the mouse of FIG.

【図13】図12のシステムの表示画面およびポインテ
ィング操作の説明図
13 is an explanatory diagram of a display screen and pointing operation of the system of FIG.

【図14】第1および第2の実施例での種々のクリック
動作を説明するための図
FIG. 14 is a diagram for explaining various click operations in the first and second embodiments.

【図15】本発明の第3の実施例に係る空間操作マウス
の概略ブロック図
FIG. 15 is a schematic block diagram of a spatial operation mouse according to a third embodiment of the present invention.

【図16】検出動作パターンを説明するための図、FIG. 16 is a diagram for explaining a detection operation pattern,

【図17】本発明の第4の実施例に係る動作パターン入
力方法の一例を示す図
FIG. 17 is a diagram showing an example of an operation pattern input method according to the fourth embodiment of the present invention.

【図18】動作ベクトルの概念を説明するための図FIG. 18 is a diagram for explaining the concept of a motion vector.

【図19】運動ベクトルと動作ベクトルとの相違を説明
するための図
FIG. 19 is a diagram for explaining a difference between a motion vector and a motion vector.

【図20】本発明の第4の実施例に係る空間動作パター
ン入力システムの要部構成を示すブロック図
FIG. 20 is a block diagram showing a main configuration of a spatial motion pattern input system according to a fourth embodiment of the present invention.

【図21】空間動作量を動作パターンに変換する変換部
の機能を説明するための図
FIG. 21 is a diagram for explaining the function of a conversion unit that converts a spatial motion amount into a motion pattern.

【図22】空間動作をベクトルテーブルによって動作ベ
クトルに変換する一例を示す図
FIG. 22 is a diagram showing an example of converting a spatial motion into a motion vector by a vector table.

【図23】識別部の概略構成を示すブロック図FIG. 23 is a block diagram showing a schematic configuration of an identification unit.

【図24】単位ベクトル処理部による処理の流れ図FIG. 24 is a flowchart of processing by a unit vector processing unit.

【図25】単位ベクトル処理を説明するための図FIG. 25 is a diagram for explaining unit vector processing.

【図26】ベクトル加算処理部による処理の流れ図FIG. 26 is a flowchart of processing by the vector addition processing unit.

【図27】ベクトル加算処理を説明するための図FIG. 27 is a diagram for explaining vector addition processing.

【図28】ベクトル加算処理を説明するための図FIG. 28 is a diagram for explaining vector addition processing.

【図29】判定部における処理の流れの一例を示す図FIG. 29 is a diagram showing an example of the flow of processing in a determination unit.

【図30】単位ベクトル関数による動作ベクトル列の識
別方法の一例を説明するための図
FIG. 30 is a diagram for explaining an example of a method of identifying a motion vector sequence using a unit vector function.

【図31】単位ベクトル関数による動作パターン認識処
理の流れを示す図
FIG. 31 is a diagram showing a flow of motion pattern recognition processing by a unit vector function.

【図32】本発明の動作ベクトル列マッチングと従来の
パターンマッチングとの相違を説明するための図
FIG. 32 is a diagram for explaining the difference between the motion vector sequence matching of the present invention and the conventional pattern matching.

【図33】本実施例の動作パターン入力方法を適用した
システムの構成例を示す図
FIG. 33 is a diagram showing a configuration example of a system to which the operation pattern input method according to the present embodiment is applied.

【図34】図33のシステムの入力動作例を示すのフロ
ーチャート
34 is a flow chart showing an input operation example of the system of FIG.

【図35】動作検出部において検出された検出量を補正
する処理を説明するための図
FIG. 35 is a diagram for explaining a process of correcting the detection amount detected by the motion detector.

【図36】回転量検出素子の設置位置の例を示す概観図FIG. 36 is a schematic view showing an example of the installation position of the rotation amount detection element.

【図37】補正部を設けた空間操作マウスを示す概略ブ
ロック図
FIG. 37 is a schematic block diagram showing a spatial operation mouse provided with a correction unit.

【図38】補正部での処理を説明するための図FIG. 38 is a diagram for explaining the processing in the correction unit.

【図39】3次元動作パターン入力への拡張のための前
後方向検出素子の設置位置の例を示す図
FIG. 39 is a diagram showing an example of an installation position of a front-back direction detection element for expansion to input of a three-dimensional operation pattern.

【図40】3次元動作パターン入力方法の一例を示した
FIG. 40 is a diagram showing an example of a three-dimensional operation pattern input method.

【図41】3次元空間での動作ベクトルの表現方法の一
例、および3次元空間での動作を動作ベクトルに変換す
る際に参照するベクトルテーブルの一例を示す図
FIG. 41 is a diagram showing an example of a method of expressing a motion vector in a three-dimensional space, and an example of a vector table referred to when converting a motion in a three-dimensional space into a motion vector.

【図42】動作パターン入力によって認識された結果に
よるカーソル変形例を示す図
FIG. 42 is a diagram showing a modified example of a cursor according to the result recognized by inputting a motion pattern.

【図43】本発明の第5の実施例に係る空間操作マウス
の構成図
FIG. 43 is a configuration diagram of a spatial operation mouse according to a fifth embodiment of the present invention.

【図44】本発明の第6の実施例に係る空間操作マウス
の構成図
FIG. 44 is a configuration diagram of a spatial operation mouse according to a sixth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…空間操作マウス本体、2…水平方向動き検出素子、
3…垂直方向動き検出素子、4…クリックボタン、5,
6…赤外線発光素子、16a…第1動き検出部、16b
…第2動き検出部、17…スイッチ部、18…送信部、
21…制御対象機器、22…表示画面、23…赤外線受
光素子、30a…第1動きセンサ、31a31b…増幅
器、39a…帯域制限器、40a…A/D変換器、32
c…速度検出部、30b…第2動きセンサ、31b…増
幅器、39b…帯域制限器、40b…A/D変換器、3
2d…速度検出部、41…動作認識部、42…動作パタ
ーンメモリ、43…赤外線リモコン送信回路、34…赤
外線発光素子、202…表示装置、203…表示画面、
235…カーソル、236…回転量検出素子、239…
前後方向動き検出素子
1 ... Spatial control mouse body, 2 ... Horizontal motion detection element,
3 ... Vertical motion detection element, 4 ... Click button, 5,
6 ... Infrared light emitting element, 16a ... 1st motion detection part, 16b
... second motion detector, 17 ... switch, 18 ... transmitter,
21 ... Control target device, 22 ... Display screen, 23 ... Infrared light receiving element, 30a ... First motion sensor, 31a31b ... Amplifier, 39a ... Band limiter, 40a ... A / D converter, 32
c ... speed detection unit, 30b ... second motion sensor, 31b ... amplifier, 39b ... band limiter, 40b ... A / D converter, 3
2d ... Speed detection unit, 41 ... Motion recognition unit, 42 ... Motion pattern memory, 43 ... Infrared remote control transmission circuit, 34 ... Infrared light emitting element, 202 ... Display device, 203 ... Display screen,
235 ... Cursor, 236 ... Rotation amount detecting element, 239 ...
Front-back motion detector

フロントページの続き (72)発明者 福元 富義 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内Front Page Continuation (72) Inventor Fumimoto Fumiyoshi 1 Komukai Toshiba-cho, Kawasaki-shi, Kawasaki, Kanagawa Prefecture Corporate Research & Development Center

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】操作空間での所定の3つの軸方向の速度若
しくは加速度又は3つの軸の回りの角速度若しくは角加
速度のうちの少なくとも1つを検出し、当該検出された
1つあるいは複数の量をそのままあるいは関連する量に
変換して動き信号として出力するための動き信号生成手
段と、この動き信号生成手段により与えられた前記動き
信号を含む前記制御信号を送信するための送信手段とを
有する空間操作マウスと、 前記空間操作マウスの前記送信手段により送信された制
御信号を受信するための受信手段と、この受信手段によ
り得られた制御信号に基づいて、表示画面上のカーソル
または表示オブジェクトを変化させ、前記空間操作マウ
スの操作者の指示位置を表示し、あるいは前記動き信号
に従い表示画面を変化させる表示手段とを有する制御対
象機器とを具備してなることを特徴とする空間操作マウ
スシステム。
1. Detecting at least one of speeds or accelerations in three predetermined axial directions in an operation space or angular velocities or angular accelerations around the three axes, and the detected one or more quantities. Has a motion signal generating means for outputting as it is or a related amount and outputting as a motion signal, and a transmitting means for transmitting the control signal including the motion signal given by the motion signal generating means. A space operation mouse, a receiving means for receiving the control signal transmitted by the transmitting means of the space operation mouse, and a cursor or a display object on the display screen based on the control signal obtained by the receiving means. Display means for changing and displaying the position pointed to by the operator of the spatial operation mouse, or changing the display screen according to the movement signal. A spatial operation mouse system comprising a controlled device.
【請求項2】操作者により与えられる3次元空間におけ
る直線的、平面的あるいは空間的な動作を、その操作空
間における所定の3つの軸方向の速度若しくは加速度又
は3つの軸の回りの角速度若しくは角加速度のうちの少
なくとも2つの量として検出する検出ステップと、 当該検出された少なくとも2つの検出量を、当該動作を
パターン化した動作パターンデータに変換する変換ステ
ップと、 当該動作パターンデータと、予め登録されている複数の
基本動作パターンに関連する基本データとを比較する比
較ステップと、 前記比較ステップにおける比較結果に基づいて当該動作
パターンを識別する識別ステップと、 前記識別ステップにおける識別結果に基づいて当該動作
パターンに対応する所定の制御を行う制御ステップとを
含むことを特徴とする空間操作マウスを用いた空間動作
パターン入力方法。
2. A linear, planar, or spatial motion in a three-dimensional space given by an operator is defined as velocity or acceleration in the predetermined three axial directions or angular velocity or angle around the three axes in the operation space. A detection step of detecting at least two amounts of acceleration, a conversion step of converting the detected at least two detection amounts into motion pattern data in which the motion is patterned, the motion pattern data, and pre-registered A comparing step of comparing the basic data relating to the plurality of basic motion patterns, an identifying step of identifying the operation pattern on the basis of the comparison result in the comparing step, and a comparing step based on the identification result in the identifying step. And a control step for performing a predetermined control corresponding to the operation pattern. Spatial operation pattern input method using mouse.
【請求項3】空間操作型入力装置の空間動作パターンに
応じた内容の制御を制御対象機器に実行させるための空
間動作パターン入力方法において、 空間操作型入力装置の空間における互いに平行でない所
定の3軸方向の動作量のうち少なくとも2軸方向の動作
量を検出する動作検出ステップと、 前記動作検出ステップにおいて検出された少なくとも2
つの検出量からなる当該空間動作量を動作ベクトル列に
変換する変換ステップと、 予め登録されている基本動作パターンに対応した動作ベ
クトル列と当該動作ベクトル列とを比較して識別を行う
識別ステップと、 前記識別ステップにおける認識結果に基づく制御を制御
対象機器に対して実行する実行ステップとを有すること
を特徴とする空間動作パターン入力方法。
3. A spatial motion pattern input method for causing a control target device to execute control of contents according to a spatial motion pattern of a spatial manipulation type input device, wherein a predetermined number of 3 which are not parallel to each other in a space of the spatial manipulation type input device. A motion detecting step of detecting at least two motion amounts in the axial direction among the motion amounts in the axial direction; and at least two detected in the motion detecting step.
A conversion step of converting the spatial motion amount consisting of two detection amounts into a motion vector sequence, and an identification step of comparing the motion vector sequence corresponding to a basic motion pattern registered in advance with the motion vector sequence for identification. And an executing step of executing control based on the recognition result in the identifying step with respect to a device to be controlled, the spatial operation pattern input method.
【請求項4】前記識別ステップは、 空間操作型入力装置の動作量から得られた動作ベクトル
列を基にした単位ベクトル関数および空間操作型入力装
置の動作量から得られた動作ベクトル列を基にした累積
ベクトル関数の少なくとも一方を生成するベクトル関数
生成ステップと、 生成した単位ベクトル関数および累積ベクトル関数の少
なくとも一方を、基本動作パターン動作に対応した動作
ベクトル列から得られるものと比較し、この比較結果に
基づいて空間操作型入力装置の空間動作パターンの識別
を行う識別ステップとを含むことを特徴とする請求項3
に記載の空間動作パターン入力方法。
4. A unit vector function based on a motion vector sequence obtained from a motion amount of the spatial operation type input device and a motion vector sequence obtained from a motion amount of the spatial operation type input device in the identifying step. The vector function generating step for generating at least one of the cumulative vector functions set in step 1 and at least one of the generated unit vector function and cumulative vector function are compared with those obtained from the motion vector sequence corresponding to the basic motion pattern motion. 4. An identification step of identifying a spatial motion pattern of the spatial operation type input device based on the comparison result.
The spatial movement pattern input method described in.
【請求項5】前記変換ステップは、空間動作量に対して
単位ベクトルの個数と角度を登録した変換テーブルに対
して、前記動作検出ステップにおいて検出された少なく
とも2つの検出量からなる当該空間動作量を時間的にサ
ンプリングした値を逐次指定値として与えることによっ
て、当該空間動作量を動作ベクトル列に変換した結果を
得ることを特徴とする請求項3に記載の空間動作パター
ン入力方法。
5. The conversion step comprises a conversion table in which the number of unit vectors and angles are registered with respect to the spatial motion amount, and the spatial motion amount including at least two detection amounts detected in the motion detection step. The spatial motion pattern input method according to claim 3, wherein a result obtained by converting the spatial motion amount into a motion vector sequence is obtained by sequentially providing a value obtained by temporally sampling as a designated value.
【請求項6】前記動作検出ステップは、前記空間操作型
入力装置の動作量を検出する2軸方向ごとに、これに直
行する方向の軸回りの回転動作量を検出する回転動作量
検出ステップをさらに有し、 前記変換ステップは、前記回転動作量検出ステップでの
検出結果に基づき、前記動作検出ステップで検出された
関連する前記空間操作型入力装置の2軸方向の動作量か
ら上記軸回りの回転動作量を取り除いた動作量を抽出す
る補正ステップをさらに有することを特徴とする請求項
3に記載の空間動作パターン入力方法。
6. The operation detecting step includes a rotational operation amount detecting step of detecting an amount of rotational operation about an axis in a direction orthogonal to each of two axis directions for detecting an amount of operation of the spatial operation type input device. Further, the converting step includes, based on the detection result of the rotational movement amount detecting step, a movement amount in the two axial directions of the related spatial operation type input device detected in the movement detecting step, The spatial motion pattern input method according to claim 3, further comprising a correction step of extracting a motion amount from which a rotation motion amount is removed.
【請求項7】前記実行ステップは、前記識別ステップに
おいて認識された空間動作パターンの形状を表示画面に
表示することを特徴とする請求項3に記載の空間動作パ
ターン入力方法。
7. The spatial motion pattern input method according to claim 3, wherein the execution step displays the shape of the spatial motion pattern recognized in the identification step on a display screen.
JP10022994A 1993-05-13 1994-05-13 Space manipulation mouse system and space operation pattern input method Pending JPH0728591A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10022994A JPH0728591A (en) 1993-05-13 1994-05-13 Space manipulation mouse system and space operation pattern input method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-111856 1993-05-13
JP11185693 1993-05-13
JP10022994A JPH0728591A (en) 1993-05-13 1994-05-13 Space manipulation mouse system and space operation pattern input method

Publications (1)

Publication Number Publication Date
JPH0728591A true JPH0728591A (en) 1995-01-31

Family

ID=26441289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10022994A Pending JPH0728591A (en) 1993-05-13 1994-05-13 Space manipulation mouse system and space operation pattern input method

Country Status (1)

Country Link
JP (1) JPH0728591A (en)

Cited By (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147248A (en) * 1995-11-01 1997-06-06 Thomson Consumer Electron Inc Monitoring system
JP2001084411A (en) * 1995-05-03 2001-03-30 Mitsubishi Electric Inf Technol Center America Inc Character control system on screen
KR20020005287A (en) * 2000-07-07 2002-01-17 송치훈 Location information input device of serial communication method using power of PS / 2 port
JP2002062981A (en) * 2000-08-16 2002-02-28 Nippon Hoso Kyokai <Nhk> Display screen indicating device
KR100342108B1 (en) * 2000-03-13 2002-06-26 구현석 mouse moving in The air
US6515669B1 (en) 1998-10-23 2003-02-04 Olympus Optical Co., Ltd. Operation input device applied to three-dimensional input device
JP2003111171A (en) * 2001-09-26 2003-04-11 Yamaha Corp Remote controller
JP2005143069A (en) * 2004-02-12 2005-06-02 Sony Corp Control apparatus and control method
WO2005081095A2 (en) * 2004-02-19 2005-09-01 Siemens Aktiengesellschaft Method for assessing a virtual writing plane
WO2006028013A1 (en) * 2004-09-07 2006-03-16 Vodafone K.K. Acceleration estimating method, acceleration estimating device, and mobile terminal
JP2006211104A (en) * 2005-01-26 2006-08-10 Sharp Corp Remote control roller and remote control system
JP2006323859A (en) * 1995-06-19 2006-11-30 Matsushita Electric Ind Co Ltd Document display device
JP2006345537A (en) * 2003-05-01 2006-12-21 Thomson Licensing Multimedia user interface
JP2007164761A (en) * 2005-12-14 2007-06-28 Ind Technol Res Inst On/off status sensor and inertial cursor control device using same
JP2007164762A (en) * 2005-12-09 2007-06-28 Ind Technol Res Inst Wireless inertial input device
JP2007241655A (en) * 2006-03-08 2007-09-20 Nintendo Co Ltd Movement discrimination device and movement discrimination program
JP2007243827A (en) * 2006-03-10 2007-09-20 Nintendo Co Ltd Movement discrimination device and movement discrimination program
JP2007535774A (en) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド Method and device for removing unintentional movement in a free space pointing device
JP2007535776A (en) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド Free-space pointing device with tilt compensation and improved usability
WO2008029467A1 (en) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Gesture input system, method and program
JP2008077425A (en) * 2006-09-21 2008-04-03 Sony Computer Entertainment Inc Information processor, information processing method, and program
KR100827236B1 (en) * 2006-05-23 2008-05-07 삼성전자주식회사 Pointing Device, Pointer movement method and Apparatus for displaying the pointer
CN101251382A (en) * 2002-08-28 2008-08-27 索尼株式会社 Electronic apparatus, signal compensation device, and signal compensation method
KR100855471B1 (en) * 2006-09-19 2008-09-01 삼성전자주식회사 Input device and method for providing movement information of the input device
JP2008541232A (en) * 2005-05-04 2008-11-20 ヒルクレスト・ラボラトリーズ・インコーポレイテッド Method and system for scrolling and pointing in a user interface
JP2008299866A (en) * 2004-03-23 2008-12-11 Fujitsu Ltd Distinguishing tilt and translation motion components in handheld devices
WO2009051563A1 (en) * 2007-10-19 2009-04-23 Razer (Asia-Pacific) Pte Ltd Unintended displacement identification and correction method and system
US7545410B2 (en) 1997-04-24 2009-06-09 Sony Corporation Video camera system having remote commander
WO2009072583A1 (en) * 2007-12-07 2009-06-11 Sony Corporation Input device, control device, control system, control method, and handheld device
JP2009151664A (en) * 2007-12-21 2009-07-09 Denso Corp Remote control apparatus
JP2009205245A (en) * 2008-02-26 2009-09-10 Nikon Corp Image reproduction system
JP2010097429A (en) * 2008-10-16 2010-04-30 Nintendo Co Ltd Information processing apparatus and information processing program
KR100964426B1 (en) * 2008-06-25 2010-06-16 엘지전자 주식회사 A display device
JP2010146230A (en) * 2008-12-18 2010-07-01 Seiko Epson Corp Input device and data processing system
CN101840277A (en) * 2009-03-17 2010-09-22 索尼公司 Input media, control device, control system and control method
DE102009015918A1 (en) * 2009-03-25 2010-09-30 Kuhn, Andrè Input arrangement for display system e.g. navigation system, use in motor vehicles, has control device controlling screen, and connecting device provided between direction determination device and position determination device
JP2011238250A (en) * 2004-04-30 2011-11-24 Hillcrest Laboratories Inc 3d pointing device and pointing method
KR101112624B1 (en) * 2008-11-06 2012-02-15 주식회사 비트컴퓨터 Character Recognizing method and the system with 3D Accelerometer
USRE43657E1 (en) 2002-08-28 2012-09-11 Sony Corporation Electronic device, signal compensation device and signal compensation method
JP2012256378A (en) * 2006-02-01 2012-12-27 Memsic Inc Control system of portable device by movement detection device, control method, data input system, and data input method
JP2013175208A (en) * 2013-04-05 2013-09-05 Nintendo Co Ltd Information processing apparatus and information processing program
JP2013232208A (en) * 2007-08-20 2013-11-14 Qualcomm Inc Method, device, computer readable recording medium and apparatus for enhanced rejection of out-of-vocabulary words
JP2013242916A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
JP2013242836A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
US8692764B2 (en) 2004-03-23 2014-04-08 Fujitsu Limited Gesture based user interface supporting preexisting symbols
WO2015141175A1 (en) * 2014-03-18 2015-09-24 株式会社デンソー Operation input device and operation input method
US9223405B2 (en) 2011-03-16 2015-12-29 Electronics And Telecommunications Research Institute Apparatus and method for inputting information based on events
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
US9298282B2 (en) 2004-04-30 2016-03-29 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
WO2016056259A1 (en) * 2014-10-07 2016-04-14 株式会社ログバー Gesture input system data processing method
CN105744339A (en) * 2009-05-29 2016-07-06 Lg电子株式会社 Image display apparatus and operating method thereof
US9616334B2 (en) 2002-04-05 2017-04-11 Mq Gaming, Llc Multi-platform gaming system using RFID-tagged toys
US9675878B2 (en) 2004-09-29 2017-06-13 Mq Gaming, Llc System and method for playing a virtual game by sensing physical movements
US9700806B2 (en) 2005-08-22 2017-07-11 Nintendo Co., Ltd. Game operating device
US9713766B2 (en) 2000-02-22 2017-07-25 Mq Gaming, Llc Dual-range wireless interactive entertainment device
US9731194B2 (en) 1999-02-26 2017-08-15 Mq Gaming, Llc Multi-platform gaming systems and methods
US9770652B2 (en) 2003-03-25 2017-09-26 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US9857885B2 (en) 2007-09-14 2018-01-02 Sony Corporation Input apparatus, control apparatus, control system, control method, and handheld apparatus
JP2018036720A (en) * 2016-08-29 2018-03-08 株式会社タカラトミー Virtual space observation system, method and program
JP2018508805A (en) * 2014-12-29 2018-03-29 株式会社ソニー・インタラクティブエンタテインメント Method and system for user interaction in a virtual or augmented reality scene using a head mounted display
US9931578B2 (en) 2000-10-20 2018-04-03 Mq Gaming, Llc Toy incorporating RFID tag
US9993724B2 (en) 2003-03-25 2018-06-12 Mq Gaming, Llc Interactive gaming toy
US10010790B2 (en) 2002-04-05 2018-07-03 Mq Gaming, Llc System and method for playing an interactive game
US10137365B2 (en) 2005-08-24 2018-11-27 Nintendo Co., Ltd. Game controller and game system
US10159897B2 (en) 2004-11-23 2018-12-25 Idhl Holdings, Inc. Semantic gaming and application transformation
KR102001121B1 (en) * 2018-10-30 2019-07-17 (주)유즈브레인넷 Apparatus and Method for Recognizing Motion By Using Gyroscope

Cited By (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084411A (en) * 1995-05-03 2001-03-30 Mitsubishi Electric Inf Technol Center America Inc Character control system on screen
JP2006323859A (en) * 1995-06-19 2006-11-30 Matsushita Electric Ind Co Ltd Document display device
JPH09147248A (en) * 1995-11-01 1997-06-06 Thomson Consumer Electron Inc Monitoring system
US7545410B2 (en) 1997-04-24 2009-06-09 Sony Corporation Video camera system having remote commander
US6515669B1 (en) 1998-10-23 2003-02-04 Olympus Optical Co., Ltd. Operation input device applied to three-dimensional input device
US9731194B2 (en) 1999-02-26 2017-08-15 Mq Gaming, Llc Multi-platform gaming systems and methods
US10300374B2 (en) 1999-02-26 2019-05-28 Mq Gaming, Llc Multi-platform gaming systems and methods
US9861887B1 (en) 1999-02-26 2018-01-09 Mq Gaming, Llc Multi-platform gaming systems and methods
US9814973B2 (en) 2000-02-22 2017-11-14 Mq Gaming, Llc Interactive entertainment system
US10307671B2 (en) 2000-02-22 2019-06-04 Mq Gaming, Llc Interactive entertainment system
US9713766B2 (en) 2000-02-22 2017-07-25 Mq Gaming, Llc Dual-range wireless interactive entertainment device
US10188953B2 (en) 2000-02-22 2019-01-29 Mq Gaming, Llc Dual-range wireless interactive entertainment device
KR100342108B1 (en) * 2000-03-13 2002-06-26 구현석 mouse moving in The air
KR20020005287A (en) * 2000-07-07 2002-01-17 송치훈 Location information input device of serial communication method using power of PS / 2 port
JP2002062981A (en) * 2000-08-16 2002-02-28 Nippon Hoso Kyokai <Nhk> Display screen indicating device
US9931578B2 (en) 2000-10-20 2018-04-03 Mq Gaming, Llc Toy incorporating RFID tag
US10307683B2 (en) 2000-10-20 2019-06-04 Mq Gaming, Llc Toy incorporating RFID tag
US9737797B2 (en) 2001-02-22 2017-08-22 Mq Gaming, Llc Wireless entertainment device, system, and method
US10758818B2 (en) 2001-02-22 2020-09-01 Mq Gaming, Llc Wireless entertainment device, system, and method
US10179283B2 (en) 2001-02-22 2019-01-15 Mq Gaming, Llc Wireless entertainment device, system, and method
JP2003111171A (en) * 2001-09-26 2003-04-11 Yamaha Corp Remote controller
US10010790B2 (en) 2002-04-05 2018-07-03 Mq Gaming, Llc System and method for playing an interactive game
US10478719B2 (en) 2002-04-05 2019-11-19 Mq Gaming, Llc Methods and systems for providing personalized interactive entertainment
US9616334B2 (en) 2002-04-05 2017-04-11 Mq Gaming, Llc Multi-platform gaming system using RFID-tagged toys
US10507387B2 (en) 2002-04-05 2019-12-17 Mq Gaming, Llc System and method for playing an interactive game
US11278796B2 (en) 2002-04-05 2022-03-22 Mq Gaming, Llc Methods and systems for providing personalized interactive entertainment
JP2010164571A (en) * 2002-08-28 2010-07-29 Sony Corp Electronic apparatus, signal compensation device, and signal compensation method
JP4730464B2 (en) * 2002-08-28 2011-07-20 ソニー株式会社 Electronic device apparatus, signal compensation apparatus, and signal compensation method
USRE43657E1 (en) 2002-08-28 2012-09-11 Sony Corporation Electronic device, signal compensation device and signal compensation method
CN101251382A (en) * 2002-08-28 2008-08-27 索尼株式会社 Electronic apparatus, signal compensation device, and signal compensation method
JP2008269577A (en) * 2002-08-28 2008-11-06 Sony Corp Electronic apparatus, spatial displacement calculating device and spatial displacement calculating method
US11052309B2 (en) 2003-03-25 2021-07-06 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US10022624B2 (en) 2003-03-25 2018-07-17 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US10583357B2 (en) 2003-03-25 2020-03-10 Mq Gaming, Llc Interactive gaming toy
US10369463B2 (en) 2003-03-25 2019-08-06 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US9993724B2 (en) 2003-03-25 2018-06-12 Mq Gaming, Llc Interactive gaming toy
US9707478B2 (en) 2003-03-25 2017-07-18 Mq Gaming, Llc Motion-sensitive controller and associated gaming applications
US9770652B2 (en) 2003-03-25 2017-09-26 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
JP2006345537A (en) * 2003-05-01 2006-12-21 Thomson Licensing Multimedia user interface
JP2006345536A (en) * 2003-05-01 2006-12-21 Thomson Licensing Multimedia user interface
JP2016015741A (en) * 2003-05-01 2016-01-28 トムソン ライセンシングThomson Licensing Multimedia user interface
JP2005143069A (en) * 2004-02-12 2005-06-02 Sony Corp Control apparatus and control method
WO2005081095A2 (en) * 2004-02-19 2005-09-01 Siemens Aktiengesellschaft Method for assessing a virtual writing plane
WO2005081095A3 (en) * 2004-02-19 2005-11-17 Siemens Ag Method for assessing a virtual writing plane
US11119575B2 (en) 2004-03-23 2021-09-14 Fujitsu Limited Gesture based user interface supporting preexisting symbols
JP2008299866A (en) * 2004-03-23 2008-12-11 Fujitsu Ltd Distinguishing tilt and translation motion components in handheld devices
US8692764B2 (en) 2004-03-23 2014-04-08 Fujitsu Limited Gesture based user interface supporting preexisting symbols
JP2015015058A (en) * 2004-04-30 2015-01-22 ヒルクレスト・ラボラトリーズ・インコーポレイテッド Three-dimensional pointing device with inclination compensation and improved usability
US9261978B2 (en) 2004-04-30 2016-02-16 Hillcrest Laboratories, Inc. 3D pointing devices and methods
US9575570B2 (en) 2004-04-30 2017-02-21 Hillcrest Laboratories, Inc. 3D pointing devices and methods
JP2007535776A (en) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド Free-space pointing device with tilt compensation and improved usability
JP2007535774A (en) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド Method and device for removing unintentional movement in a free space pointing device
US11157091B2 (en) 2004-04-30 2021-10-26 Idhl Holdings, Inc. 3D pointing devices and methods
US9298282B2 (en) 2004-04-30 2016-03-29 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
US9946356B2 (en) 2004-04-30 2018-04-17 Interdigital Patent Holdings, Inc. 3D pointing devices with orientation compensation and improved usability
JP2012190479A (en) * 2004-04-30 2012-10-04 Hillcrest Laboratories Inc Three-dimensional pointing device with inclination compensation and improved usability
US10514776B2 (en) 2004-04-30 2019-12-24 Idhl Holdings, Inc. 3D pointing devices and methods
US10782792B2 (en) 2004-04-30 2020-09-22 Idhl Holdings, Inc. 3D pointing devices with orientation compensation and improved usability
JP2011238250A (en) * 2004-04-30 2011-11-24 Hillcrest Laboratories Inc 3d pointing device and pointing method
JPWO2006028013A1 (en) * 2004-09-07 2008-05-08 ソフトバンクモバイル株式会社 Acceleration estimation method, acceleration estimation device, and mobile terminal device
WO2006028013A1 (en) * 2004-09-07 2006-03-16 Vodafone K.K. Acceleration estimating method, acceleration estimating device, and mobile terminal
US8521467B2 (en) 2004-09-07 2013-08-27 Vodafone Group Plc Method for acceleration estimation, acceleration estimating apparatus, and mobile terminal
US9675878B2 (en) 2004-09-29 2017-06-13 Mq Gaming, Llc System and method for playing a virtual game by sensing physical movements
US10159897B2 (en) 2004-11-23 2018-12-25 Idhl Holdings, Inc. Semantic gaming and application transformation
US11154776B2 (en) 2004-11-23 2021-10-26 Idhl Holdings, Inc. Semantic gaming and application transformation
JP2006211104A (en) * 2005-01-26 2006-08-10 Sharp Corp Remote control roller and remote control system
JP2008541232A (en) * 2005-05-04 2008-11-20 ヒルクレスト・ラボラトリーズ・インコーポレイテッド Method and system for scrolling and pointing in a user interface
US10155170B2 (en) 2005-08-22 2018-12-18 Nintendo Co., Ltd. Game operating device with holding portion detachably holding an electronic device
US10661183B2 (en) 2005-08-22 2020-05-26 Nintendo Co., Ltd. Game operating device
US10238978B2 (en) 2005-08-22 2019-03-26 Nintendo Co., Ltd. Game operating device
US9700806B2 (en) 2005-08-22 2017-07-11 Nintendo Co., Ltd. Game operating device
US11027190B2 (en) 2005-08-24 2021-06-08 Nintendo Co., Ltd. Game controller and game system
US10137365B2 (en) 2005-08-24 2018-11-27 Nintendo Co., Ltd. Game controller and game system
JP2007164762A (en) * 2005-12-09 2007-06-28 Ind Technol Res Inst Wireless inertial input device
JP2007164761A (en) * 2005-12-14 2007-06-28 Ind Technol Res Inst On/off status sensor and inertial cursor control device using same
JP2012256378A (en) * 2006-02-01 2012-12-27 Memsic Inc Control system of portable device by movement detection device, control method, data input system, and data input method
JP2007241655A (en) * 2006-03-08 2007-09-20 Nintendo Co Ltd Movement discrimination device and movement discrimination program
JP2007243827A (en) * 2006-03-10 2007-09-20 Nintendo Co Ltd Movement discrimination device and movement discrimination program
KR100827236B1 (en) * 2006-05-23 2008-05-07 삼성전자주식회사 Pointing Device, Pointer movement method and Apparatus for displaying the pointer
JP4489825B2 (en) * 2006-09-07 2010-06-23 学校法人 大阪電気通信大学 Gesture input system, method and program
JPWO2008029467A1 (en) * 2006-09-07 2010-01-21 学校法人 大阪電気通信大学 Gesture input system, method and program
WO2008029467A1 (en) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Gesture input system, method and program
US9032336B2 (en) 2006-09-07 2015-05-12 Osaka Electro-Communication University Gesture input system, method and program
KR100855471B1 (en) * 2006-09-19 2008-09-01 삼성전자주식회사 Input device and method for providing movement information of the input device
JP4700584B2 (en) * 2006-09-21 2011-06-15 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing method, and program
JP2008077425A (en) * 2006-09-21 2008-04-03 Sony Computer Entertainment Inc Information processor, information processing method, and program
JP2013232208A (en) * 2007-08-20 2013-11-14 Qualcomm Inc Method, device, computer readable recording medium and apparatus for enhanced rejection of out-of-vocabulary words
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
US9857885B2 (en) 2007-09-14 2018-01-02 Sony Corporation Input apparatus, control apparatus, control system, control method, and handheld apparatus
US10747338B2 (en) 2007-09-14 2020-08-18 Sony Corporation Input apparatus, control apparatus, control system, control method, and handheld apparatus
WO2009051563A1 (en) * 2007-10-19 2009-04-23 Razer (Asia-Pacific) Pte Ltd Unintended displacement identification and correction method and system
US9046938B2 (en) 2007-10-19 2015-06-02 Razer (Asia-Pacific) Pte Ltd Unintended displacement identification and correction method and system
US8576168B2 (en) 2007-12-07 2013-11-05 Sony Corporation Input apparatus, control apparatus, control system, control method, and handheld apparatus
WO2009072583A1 (en) * 2007-12-07 2009-06-11 Sony Corporation Input device, control device, control system, control method, and handheld device
JP2009151664A (en) * 2007-12-21 2009-07-09 Denso Corp Remote control apparatus
JP2009205245A (en) * 2008-02-26 2009-09-10 Nikon Corp Image reproduction system
KR100964426B1 (en) * 2008-06-25 2010-06-16 엘지전자 주식회사 A display device
US8884875B2 (en) 2008-10-16 2014-11-11 Nintendo Co., Ltd. Information processing apparatus and computer-readable recording medium recording information processing program
JP2010097429A (en) * 2008-10-16 2010-04-30 Nintendo Co Ltd Information processing apparatus and information processing program
KR101112624B1 (en) * 2008-11-06 2012-02-15 주식회사 비트컴퓨터 Character Recognizing method and the system with 3D Accelerometer
JP2010146230A (en) * 2008-12-18 2010-07-01 Seiko Epson Corp Input device and data processing system
US8614670B2 (en) 2008-12-18 2013-12-24 Seiko Epson Corporation Input device and data processing system
CN101840277A (en) * 2009-03-17 2010-09-22 索尼公司 Input media, control device, control system and control method
DE102009015918A1 (en) * 2009-03-25 2010-09-30 Kuhn, Andrè Input arrangement for display system e.g. navigation system, use in motor vehicles, has control device controlling screen, and connecting device provided between direction determination device and position determination device
CN105744339A (en) * 2009-05-29 2016-07-06 Lg电子株式会社 Image display apparatus and operating method thereof
US9223405B2 (en) 2011-03-16 2015-12-29 Electronics And Telecommunications Research Institute Apparatus and method for inputting information based on events
US10261630B2 (en) 2012-04-27 2019-04-16 Panasonic Intellectual Property Corporation Of America Input device, input support method, and program
JP2013242916A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
JP2013242836A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
JP2013175208A (en) * 2013-04-05 2013-09-05 Nintendo Co Ltd Information processing apparatus and information processing program
WO2015141175A1 (en) * 2014-03-18 2015-09-24 株式会社デンソー Operation input device and operation input method
WO2016056259A1 (en) * 2014-10-07 2016-04-14 株式会社ログバー Gesture input system data processing method
JP2016076104A (en) * 2014-10-07 2016-05-12 株式会社ログバー Method for processing data of gesture input system
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
JP2018508805A (en) * 2014-12-29 2018-03-29 株式会社ソニー・インタラクティブエンタテインメント Method and system for user interaction in a virtual or augmented reality scene using a head mounted display
JP2018036720A (en) * 2016-08-29 2018-03-08 株式会社タカラトミー Virtual space observation system, method and program
KR102001121B1 (en) * 2018-10-30 2019-07-17 (주)유즈브레인넷 Apparatus and Method for Recognizing Motion By Using Gyroscope

Similar Documents

Publication Publication Date Title
JPH0728591A (en) Space manipulation mouse system and space operation pattern input method
US5598187A (en) Spatial motion pattern input system and input method
US11755127B2 (en) Multi-sensor device with an accelerometer for enabling user interaction through sound or image
JP4702475B2 (en) Input device, handheld device and control method
USRE47070E1 (en) Input apparatus, control apparatus, control system, and control method
JP5802667B2 (en) Gesture input device and gesture input method
JP5412227B2 (en) Video display device and display control method thereof
US9268400B2 (en) Controlling a graphical user interface
US8896528B2 (en) Control device, input device, control system, handheld device, and control method
EP2353065B1 (en) Controlling and accessing content using motion processing on mobile devices
US5144594A (en) Acoustic mouse system
EP2677741A1 (en) Remote control apparatus and control method thereof
US20100007518A1 (en) Input apparatus using motions and user manipulations and input method applied to such input apparatus
EP2302492A2 (en) Method for providing GUI which generates gravity map to move pointer and display apparatus using the same
US20040196259A1 (en) Intuitive mobile device interface to virtual spaces
KR20020072367A (en) Information input system using bio feedback and method thereof
JP2010152761A (en) Input apparatus, control apparatus, control system, electronic apparatus, and control method
KR19990011180A (en) How to select menu using image recognition
JPH07248873A (en) Controller using myoelectric signal
US20100295667A1 (en) Motion based pointing apparatus providing haptic feedback and control method thereof
US8823648B2 (en) Virtual interface and control device
JP2011065512A (en) Information processing system, information processing program, operation recognition system, and operation recognition program
US8456422B2 (en) Input apparatus, control apparatus, control system, control method, and handheld apparatus
KR100601001B1 (en) Computer input apparatus using gyro and ultrasonic
JPH04257014A (en) Input device