JP4824799B2 - Pointing system - Google Patents

Pointing system Download PDF

Info

Publication number
JP4824799B2
JP4824799B2 JP2009183683A JP2009183683A JP4824799B2 JP 4824799 B2 JP4824799 B2 JP 4824799B2 JP 2009183683 A JP2009183683 A JP 2009183683A JP 2009183683 A JP2009183683 A JP 2009183683A JP 4824799 B2 JP4824799 B2 JP 4824799B2
Authority
JP
Japan
Prior art keywords
pointing device
light
pointing
pointer
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009183683A
Other languages
Japanese (ja)
Other versions
JP2009301564A (en
Inventor
樹 佐藤
功 荒井
克彦 布施
陽介 管野
健 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Instruments Inc
Original Assignee
Seiko Instruments Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Instruments Inc filed Critical Seiko Instruments Inc
Priority to JP2009183683A priority Critical patent/JP4824799B2/en
Publication of JP2009301564A publication Critical patent/JP2009301564A/en
Application granted granted Critical
Publication of JP4824799B2 publication Critical patent/JP4824799B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

この発明は、ポインティングシステムに関し、さらに詳しくは、パーソナルコンピュータ(パソコン)のディスプレイ画面上での位置指定や座標データを指示するポインティングシステムに関する。   The present invention relates to a pointing system, and more particularly, to a pointing system that designates position designation and coordinate data on a display screen of a personal computer (personal computer).

従来のポインティングデバイスとしては、たとえば、マウス、デジタイザー、ライトペン、トラック・ボール、タブレットなどが知られている。   As conventional pointing devices, for example, a mouse, a digitizer, a light pen, a track / ball, a tablet, and the like are known.

マウスやトラック・ボールは、移動方向と移動量によって座標上の位置を指示するデバイスである。   A mouse or a track ball is a device that indicates a position on coordinates according to a moving direction and a moving amount.

デジタイザーやライトペンは、直接座標位置を指定するデバイスである。   Digitizers and light pens are devices that directly specify coordinate positions.

また、机などの上で操作する必要がないポインティングデバイスとしての入力装置が開示されている。   Also, an input device as a pointing device that does not need to be operated on a desk or the like is disclosed.

特開平07−44315号公報JP 07-44315 A

しかしながら、上記のごとき従来のポインティングデバイスは、入力の際の制約が多い問題点がある。   However, the conventional pointing device as described above has a problem that there are many restrictions when inputting.

たとえば、マウスでは机などの上で操作する必要があり、タブレットやデジタイザーやライトペン等では入力面に対して接触する必要があるため、ユーザーの操作性が限定されてしまうという問題点があった。   For example, the mouse needs to be operated on a desk, etc., and the tablet, digitizer, light pen, etc. need to touch the input surface, which has the problem that the user's operability is limited. .

また、トラック・ボール等は一般にノート型パソコン本体と一体に備えられているために本体から離れては操作することができないという問題点があった。   In addition, since a track / ball or the like is generally provided integrally with a notebook personal computer main body, there is a problem that it cannot be operated away from the main body.

そこで、この発明は、上記に鑑みてなされたものであって、ユーザーの操作性のよいポインティングシステムを提供することを目的とする。   Therefore, the present invention has been made in view of the above, and an object of the present invention is to provide a pointing system with good user operability.

上述した課題を解決し、目的を達成するため、請求項1に記載の発明にかかるポインティングシステムは、ポインティングデバイスおよび端末装置から構成されるポインティングシステムにおいて、前記ポインティングデバイスが、中心に高輝度な光線を含む拡散光線を発光する光源体を備え、前記端末装置が、前記ポインティングデバイスからの拡散光線を検出する複数の受光センサを配置した検出手段と、前記受光センサの受光状態でポインティングデバイスの向きを判断する判断手段と、ディスプレイ画面上にポインタを表示するポインタ表示手段と、前記判断手段によって判断されたポインティングデバイスの向きに応じて前記ポインタ表示手段によって表示されたポインタを移動させる移動手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, a pointing system according to the first aspect of the present invention is a pointing system including a pointing device and a terminal device, wherein the pointing device has a light beam with high brightness at the center. A light source body that emits a diffused light beam, wherein the terminal device has a plurality of light receiving sensors for detecting the diffused light beam from the pointing device, and the direction of the pointing device in the light receiving state of the light receiving sensor. Determining means for determining; pointer display means for displaying a pointer on the display screen; and moving means for moving the pointer displayed by the pointer display means in accordance with the orientation of the pointing device determined by the determining means. It is characterized by having.

この発明によれば、ポインティングデバイスの3次元空間上の移動を端末装置側で認識して、その移動に応じてポインタを移動表示させることができるようになるため、ユーザーは、空間的な制約がない状態でポインティングデバイスを操作することができ、ユーザーの操作性が向上するという効果を奏する。   According to the present invention, the movement of the pointing device in the three-dimensional space can be recognized on the terminal device side, and the pointer can be moved and displayed in accordance with the movement. The pointing device can be operated in a state where there is no device, and the operability of the user is improved.

この発明のポインティングシステムの概念図である。It is a conceptual diagram of the pointing system of this invention. この発明の実施の形態1のポインティングシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the pointing system of Embodiment 1 of this invention. この発明の実施の形態1のポインティングシステムの処理の流れを説明するシーケンス図である。It is a sequence diagram explaining the flow of a process of the pointing system of Embodiment 1 of this invention. この発明の実施の形態2のポインティングシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the pointing system of Embodiment 2 of this invention. この発明の実施の形態2のポインティングシステムの処理の流れを説明するシーケンス図である。It is a sequence diagram explaining the flow of a process of the pointing system of Embodiment 2 of this invention. ポインティングデバイスの初期位置決定説明の図である。It is a figure of initial position determination explanation of a pointing device. ポインティングデバイスの初期位置決定時の操作を説明する図である。It is a figure explaining operation at the time of initial position determination of a pointing device. この発明の実施の形態3のポインティングシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the pointing system of Embodiment 3 of this invention. 実施の形態3の受光部とポインティングデバイスとの関係を説明する図である。FIG. 10 is a diagram illustrating a relationship between a light receiving unit and a pointing device according to a third embodiment. 実施の形態3の発光受光動作を説明する図である。FIG. 10 is a diagram for explaining a light emitting / receiving operation of the third embodiment. 実施の形態3のポインティングデバイスが表示画面の中央・正面向きの場合の説明図である。FIG. 10 is an explanatory diagram when the pointing device according to the third embodiment is oriented in the center / front direction of the display screen. 実施の形態3のポインティングデバイスが表示部の中央・角度を持つ向きの場合の説明図である。It is explanatory drawing in the case where the pointing device of Embodiment 3 is the direction which has the center and angle of a display part. 実施の形態3のポインティングデバイスが表示部の斜め中央向きの場合の説明図である。It is explanatory drawing when the pointing device of Embodiment 3 is toward the diagonal center of a display part.

以下に添付図面を参照して、この発明の好適な実施の形態にかかるポインティングシステムについて詳細に説明する。   Hereinafter, a pointing system according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

なお、この実施の形態によりこの発明が限定されるものではない。
(本発明の概念の説明)
図1は、この発明のポインティングシステムの概念図である。
Note that the present invention is not limited to the embodiments.
(Description of the concept of the present invention)
FIG. 1 is a conceptual diagram of the pointing system of the present invention.

図1において、このポインティングシステムでは、ユーザーがポインティングデバイス1を手に持って手を振ったときの移動状態に応じて、パーソナルコンピュータ(パソコン)等のディスプレイ2の画面上に表示されるポインタ3を手の動きに合わせて上下左右に動かすシステムである。   In FIG. 1, in this pointing system, a pointer 3 displayed on a screen of a display 2 such as a personal computer (personal computer) is displayed in accordance with a moving state when the user shakes the hand while holding the pointing device 1. It is a system that moves up, down, left and right according to the movement of the hand.

また、ポインティングデバイス1とディスプレイ2との間の通信は、発光素子、受光素子からなるセンサによって可能である。   Further, communication between the pointing device 1 and the display 2 can be performed by a sensor including a light emitting element and a light receiving element.

なお、ブルートゥース(Bluetooth)等の近距離無線技術を用いてもよい。
(実施の形態1)
図2は、この発明の実施の形態1のポインティングシステムの機能構成を示すブロック図である。
A short-range wireless technology such as Bluetooth may be used.
(Embodiment 1)
FIG. 2 is a block diagram showing a functional configuration of the pointing system according to the first embodiment of the present invention.

このポインティングシステム100は、パーソナルコンピュータ(パソコン)等の端末装置110と、ポインティングデバイス120とで構成する。   The pointing system 100 includes a terminal device 110 such as a personal computer (personal computer) and a pointing device 120.

端末装置110は、ポインティングデバイス120からの光線を受光して電気的信号に変換する受光部111と、変換された電気的信号を認識してポインティングデバイス120の移動状態を判断する制御部112と、判断された移動状態に基づいてポインタの移動を制御する主機能部113と、ポインタを表示する表示部114とを有している。   The terminal device 110 receives a light beam from the pointing device 120 and converts it into an electrical signal, a control unit 112 that recognizes the converted electrical signal and determines the movement state of the pointing device 120, It has a main function unit 113 that controls the movement of the pointer based on the determined movement state, and a display unit 114 that displays the pointer.

また、ポインティングデバイス120は、ユーザーとのインターフェイスである押しボタン121と、加速度センサや角度センサ等によって少なくとも2方向(水平、垂直)の移動を検出する移動状態検出部122と、押しボタン121と移動状態検出部122との信号に応じて端末装置110側に送信する移動状態等の電気的信号を出力する制御部123と、移動状態等の電気的信号を光信号に変換して光線として出力する発光部124とを有している。   The pointing device 120 includes a push button 121 that is an interface with a user, a movement state detection unit 122 that detects movement in at least two directions (horizontal and vertical) by an acceleration sensor, an angle sensor, and the like, and a movement with the push button 121. A control unit 123 that outputs an electrical signal such as a moving state to be transmitted to the terminal device 110 according to a signal from the state detection unit 122, and an electrical signal such as a moving state that is converted into an optical signal and output as a light beam. And a light emitting unit 124.

なお、加速度センサ、角度センサについては、周知技術を用いればよく、したがって、それらの詳細な説明については省略する。   In addition, about an acceleration sensor and an angle sensor, what is necessary is just to use a well-known technique, Therefore, those detailed description is abbreviate | omitted.

なお、押しボタン121から制御部123に出力される信号をキー信号、移動状態検出部122から制御部123に出力される信号をセンサ信号と呼ぶ。   A signal output from the push button 121 to the control unit 123 is referred to as a key signal, and a signal output from the movement state detection unit 122 to the control unit 123 is referred to as a sensor signal.

また、端末装置110の制御部112や主機能部113と、ポインティングデバイス120の制御部123とは、図示しないCPUが図示しないROMやRAM等に記録されたプログラムを適宜読み出して実行することによって実現する。   The control unit 112 and the main function unit 113 of the terminal device 110 and the control unit 123 of the pointing device 120 are realized by appropriately reading and executing a program recorded in a ROM or RAM (not shown) by a CPU (not shown). To do.

つぎに、実施の形態1のポインティングシステムの処理の流れを説明する。
図3は、この発明の実施の形態1のポインティングシステムの処理の流れを説明するシーケンス図である。
Next, a processing flow of the pointing system according to the first embodiment will be described.
FIG. 3 is a sequence diagram illustrating the flow of processing of the pointing system according to the first embodiment of the present invention.

まず、ポインティングデバイス120の制御部123は、ポーリングまたは割り込みによって、押しボタン121または移動状態検出部122からの信号待ち状態となる(ステップS110)。   First, the control unit 123 of the pointing device 120 waits for a signal from the push button 121 or the moving state detection unit 122 by polling or interruption (step S110).

そして、制御部123は、キー信号を認識すると(ステップS111)、キーコードを信号化し(ステップS113)、また、センサ信号を認識すると(ステップS112)、センサコードを信号化する(ステップS113)。   When the controller 123 recognizes the key signal (step S111), the controller 123 converts the key code into a signal (step S113). When the controller 123 recognizes the sensor signal (step S112), the controller 123 converts the sensor code into a signal (step S113).

続いて、制御部123は、キーコードまたはセンサコードを発光部124に出力して、発光部124からキーコードまたはセンサコードを光線として発光出力させる。   Subsequently, the control unit 123 outputs the key code or the sensor code to the light emitting unit 124, and causes the light emitting unit 124 to emit and output the key code or the sensor code as a light beam.

すると、端末装置110では、ポーリングまたは割り込みによって制御部112が受光待ち状態のときに、受光部111がポインティングデバイス120からの光を受光すると、キーコードまたはセンサコードの信号を制御部112に送る(ステップS120)。   Then, in the terminal device 110, when the light receiving unit 111 receives light from the pointing device 120 when the control unit 112 is in a light reception waiting state by polling or interruption, a signal of a key code or a sensor code is transmitted to the control unit 112 ( Step S120).

制御部112は、受けた信号がキーコードまたはセンサコードのいずれであるかを判断し(ステップS121)、キー信号(ステップS122)の場合は、キー信号に応じた所定動作を行う(ステップS123)。   The control unit 112 determines whether the received signal is a key code or a sensor code (step S121), and in the case of a key signal (step S122), performs a predetermined operation according to the key signal (step S123). .

一方、センサ信号(ステップS124)の場合には、制御部112はセンサ信号に基づいて移動状態を認識してポインタの移動指令を主機能部113に出力する。   On the other hand, in the case of the sensor signal (step S124), the control unit 112 recognizes the movement state based on the sensor signal and outputs a pointer movement command to the main function unit 113.

主機能部113は、移動状態に応じて、カソードレイチューブコントローラ(CRTC)等のディスプレイコントローラを起動し(ステップS125)、表示部114上のポインタを移動表示させる(ステップS126)。   The main function unit 113 activates a display controller such as a cathode ray tube controller (CRTC) according to the movement state (step S125), and moves and displays the pointer on the display unit 114 (step S126).

なお、ポインティングデバイス120の運動(変化角度)は、ポインティングデバイス120と表示部114との距離、表示部114のサイズ等を定数として、あらかじめ設定しておくことにより、忠実に表示部114上に再現できる。   The movement (change angle) of the pointing device 120 is faithfully reproduced on the display unit 114 by setting the distance between the pointing device 120 and the display unit 114, the size of the display unit 114, and the like as constants. it can.

ただし、感覚的には、実際のポインティングデバイス120の振れ角通りにポインタが動くと、微妙な調整がしずらいため、実際にはポインティングデバイス120の振れ角の数分の1の変化が表示部114上に再現するのが好ましい。   However, sensuously, if the pointer moves according to the swing angle of the actual pointing device 120, it is difficult to make a fine adjustment, and therefore, the display unit 114 actually changes a fraction of the swing angle of the pointing device 120. Preferably reproduced above.

また、これらの処理は、制御部113がプログラムを実行することによって実現することが可能である。   These processes can be realized by the control unit 113 executing a program.

したがって、上記実施の形態1によれば、ポインティングデバイス120の3次元空間上の移動を端末装置110側で認識して、その移動に応じてポインタを移動表示させることができるようになる。   Therefore, according to the first embodiment, the movement of the pointing device 120 in the three-dimensional space can be recognized on the terminal device 110 side, and the pointer can be moved and displayed in accordance with the movement.

このため、ユーザーは、空間的な制約がない状態でポインティングデバイス120を操作することができ、ユーザーの操作性が向上する。
(実施の形態2)
図4は、この発明の実施の形態2のポインティングシステムの機能構成を示すブロック図である。
Therefore, the user can operate the pointing device 120 in a state where there is no spatial restriction, and the operability for the user is improved.
(Embodiment 2)
FIG. 4 is a block diagram showing a functional configuration of the pointing system according to the second embodiment of the present invention.

このポインティングシステム200は、パソコン等の端末装置210と、ポインティングデバイス220とで構成する。   The pointing system 200 includes a terminal device 210 such as a personal computer and a pointing device 220.

端末装置210は、ポインティングデバイス220からの光線を複数の受光素子で感知してそれぞれの受光素子ごとに電気的信号に変換する受光部211と、変換された電気的信号を認識してポインティングデバイス220の移動状態を、受光した受光素子の配置に基づく座標によって判断する制御部212と、判断された移動状態に基づいてポインタの移動を制御する主機能部213と、ポインタを表示する表示部214とを有している。   The terminal device 210 detects a light beam from the pointing device 220 with a plurality of light receiving elements and converts the light receiving unit 211 into an electric signal for each light receiving element, and recognizes the converted electric signal to indicate the pointing device 220. A control unit 212 that determines the movement state of the pointer based on the coordinates based on the arrangement of the received light receiving elements, a main function unit 213 that controls the movement of the pointer based on the determined movement state, and a display unit 214 that displays the pointer. have.

また、ポインティングデバイス220は、ユーザーとのインターフェイスである押しボタン221と、押しボタン221の信号(キー信号)に応じて端末装置210側に光線を送出させる指令を出す制御部222と、光線として出力する発光部223とを有している。   In addition, the pointing device 220 includes a push button 221 that is an interface with the user, a control unit 222 that issues a command to send a light beam to the terminal device 210 in accordance with a signal (key signal) of the push button 221, and an output as a light beam And a light emitting portion 223 that performs.

なお、端末装置210の制御部212や主機能部213と、ポインティングデバイス220の制御部222とは、図示しないCPUが図示しないROMやRAM等に記録されたプログラムを適宜読み出して実行することによって実現する。   Note that the control unit 212 and the main function unit 213 of the terminal device 210 and the control unit 222 of the pointing device 220 are realized by appropriately reading and executing a program recorded in a ROM or RAM (not shown) by a CPU (not shown). To do.

つぎに、実施の形態2のポインティングシステムの処理の流れを説明する。   Next, a processing flow of the pointing system according to the second embodiment will be described.

図5は、この発明の実施の形態2のポインティングシステムの処理の流れを説明するシーケンス図である。   FIG. 5 is a sequence diagram illustrating the flow of processing of the pointing system according to the second embodiment of the present invention.

まず、ポインティングデバイス220の制御部222は、ポーリングまたは割り込みによって、押しボタン221のキー入力待ち状態となる(ステップS210)。   First, the control unit 222 of the pointing device 220 waits for key input of the push button 221 by polling or interruption (step S210).

そして、制御部222は、発光部223から連続発光や断続発光をさせる(ステップS211)。
すると、端末装置211では受光部211が連続発光や断続発光を受光することによって(ステップS220)、制御部212がそのときの信号によって、後述するように、初期位置を認識する(ステップS221)。
Then, the control unit 222 causes the light emitting unit 223 to perform continuous light emission or intermittent light emission (step S211).
Then, in the terminal device 211, when the light receiving unit 211 receives continuous light emission or intermittent light emission (step S220), the control unit 212 recognizes the initial position based on the signal at that time as described later (step S221).

なお、制御部212は、受光した信号にキー信号が含まれている場合(ステップS222)は、キー信号に応じた所定動作を行う(ステップS223)。   In addition, when the key signal is included in the received signal (step S222), the control unit 212 performs a predetermined operation according to the key signal (step S223).

一方、制御部222は、キー信号を認識すると(ステップS212)、キーコードを信号化し(ステップS213)、キーコードを発光部224に出力して、発光部224からキーコードを光線として発光出力させる。   On the other hand, when recognizing the key signal (step S212), the control unit 222 converts the key code into a signal (step S213), outputs the key code to the light emitting unit 224, and causes the light emitting unit 224 to emit and output the key code as a light beam. .

すると、端末装置210では、ポーリングまたは割り込みによって制御部212が受光待ち状態のときに、受光部211の複数の受光素子のいずれかがポインティングデバイス220からの光線を受光すると、キーコードのキー信号を制御部212に送る(ステップS221)。   Then, in the terminal device 210, when any of the plurality of light receiving elements of the light receiving unit 211 receives a light beam from the pointing device 220 while the control unit 212 is waiting for light reception by polling or interruption, a key signal of a key code is received. The data is sent to the control unit 212 (step S221).

そして、制御部212は、受けた信号が初期位置の認識時の受光素子と異なること認識すると(ステップS224)、その変化を演算して(ステップS225)、移動状態を認識し、ポインタの移動指令を主機能部213に出力する。   When the control unit 212 recognizes that the received signal is different from the light receiving element at the time of initial position recognition (step S224), the control unit 212 calculates the change (step S225), recognizes the movement state, and performs a pointer movement command. Is output to the main function unit 213.

主機能部213は、移動状態に応じて、カソードレイチューブコントローラ(CRTC)等のディスプレイコントローラを起動し(ステップS226)、表示部214上のポインタを移動表示させる(ステップS227)。   The main function unit 213 activates a display controller such as a cathode ray tube controller (CRTC) according to the movement state (step S226), and moves and displays the pointer on the display unit 214 (step S227).

上述したように、ポインティングシステムでは、ポインティングデバイス220の初期位置を表示部214側に認識させておき、その初期位置に関するデータとの相違から移動状態を検出する必要がある。   As described above, in the pointing system, it is necessary to recognize the initial position of the pointing device 220 on the display unit 214 side and detect the movement state from the difference from the data regarding the initial position.

以下、初期位置の認識について説明する。   Hereinafter, the recognition of the initial position will be described.

図6は、ポインティングデバイスの初期位置決定説明の図である。   FIG. 6 is a diagram for explaining the initial position determination of the pointing device.

図7は、ポインティングデバイスの初期位置決定時の操作を説明する図である。   FIG. 7 is a diagram illustrating an operation when determining the initial position of the pointing device.

表示部214では、ユーザーがポインティングデバイス220を手に持って振ったときに受光する光線の強度を比較し、その中で一番強い所を判断して、その一番強い所の正面にポインティングデバイス220が存在するものとして、ここを初期位置として認識する。   The display unit 214 compares the intensities of light received when the user shakes the pointing device 220 with his / her hand, determines the strongest point, and determines the pointing device in front of the strongest point. 220 is recognized as an initial position.

たとえば、図6の(a)に示すように、表示部214に対してポインティングデバイス220が正面にある場合には、一番強度が強いのときは、ポインティングデバイス220が表示部214の真ん中に向いているときであり、表示部214側ではポインティングデバイス220をほぼ中央にあるものとして、ここを初期位置として認識する。   For example, as shown in FIG. 6A, when the pointing device 220 is in front of the display unit 214, the pointing device 220 faces the center of the display unit 214 when the strength is strongest. The display unit 214 recognizes the pointing device 220 as the initial position, assuming that the pointing device 220 is substantially in the center.

また、たとえば、図6の(b)に示すように、表示部214に対してポインティングデバイス220が斜め右側にある場合には、一番強度が強いのときは、ポインティングデバイス220が表示部214の右側に向いているときであり、表示部214側ではポインティングデバイス220を左端にあるものとして、ここを初期位置として認識する。   Further, for example, as shown in FIG. 6B, when the pointing device 220 is diagonally to the right side with respect to the display unit 214, the pointing device 220 is connected to the display unit 214 when the strength is strongest. When the display device 214 faces the right side, the pointing device 220 is recognized as being at the left end, and this is recognized as the initial position.

また、初期位置の認識の際には、たとえば、図7に示すように、表示部214上に、「カーソルにリモコン(ポインティングデバイス220)を向けてエンターキー(押しボタン221)を押して下さい」等のメッセージを表示して、ユーザーの操作を誘導するのが好ましい。   When recognizing the initial position, for example, as shown in FIG. 7, “Please point the remote control (pointing device 220) to the cursor and press the enter key (push button 221)” on the display unit 214, etc. This message is preferably displayed to guide the user's operation.

したがって、上記実施の形態2によれば、ポインティングデバイス220の3次元空間上の移動を端末装置210側で認識して、その移動に応じてポインタを移動表示させることができるようになる。   Therefore, according to the second embodiment, the movement of the pointing device 220 in the three-dimensional space can be recognized on the terminal device 210 side, and the pointer can be moved and displayed in accordance with the movement.

このため、ユーザーは、空間的な制約がない状態でポインティングデバイス220を操作することができ、ユーザーの操作性が向上する。
(実施の形態3)
図8は、この発明の実施の形態3のポインティングシステムの機能構成を示すブロック図である。
このポインティングシステム300は、パソコン等の端末装置310と、ポインティングデバイス320とで構成する。
For this reason, the user can operate the pointing device 220 in a state where there is no spatial restriction, and the operability for the user is improved.
(Embodiment 3)
FIG. 8 is a block diagram showing a functional configuration of the pointing system according to the third embodiment of the present invention.
The pointing system 300 includes a terminal device 310 such as a personal computer and a pointing device 320.

端末装置310は、ポインティングデバイス320からの光線を受光して電気的信号に変換する受光部311と、変換された電気的信号を認識してポインティングデバイス320の移動状態を判断する制御部312と、判断された移動状態に基づいてポインタの移動を制御する主機能部313と、ポインタを表示する表示部314とを有している。   The terminal device 310 receives a light beam from the pointing device 320 and converts it into an electrical signal, a control unit 312 that recognizes the converted electrical signal and determines the movement state of the pointing device 320, It has a main function unit 313 that controls the movement of the pointer based on the determined movement state, and a display unit 314 that displays the pointer.

なお、端末装置310の制御部312や主機能部313は、図示しないCPUが図示しないROMやRAM等に記録されたプログラムを適宜読み出して実行することによって実現する。   Note that the control unit 312 and the main function unit 313 of the terminal device 310 are realized by appropriately reading and executing a program recorded in a ROM, a RAM, or the like (not shown) by a CPU (not shown).

また、ポインティングデバイス320は、ユーザーとのインターフェイスである押しボタン321と、押しボタン321(キー信号)の信号に応じて端末装置310側に光線を送信する電気的信号を出力する制御部322と、電気的信号を光信号に変換して光線として出力する発光部323とを有している。   The pointing device 320 includes a push button 321 that is an interface with the user, a control unit 322 that outputs an electrical signal that transmits a light beam to the terminal device 310 in accordance with a signal from the push button 321 (key signal), And a light emitting unit 323 that converts an electrical signal into an optical signal and outputs it as a light beam.

なお、ポインティングデバイス320の制御部322とは、図示しないCPUが図示しないROMやRAM等に記録されたプログラムを適宜読み出して実行することによって実現する。   Note that the control unit 322 of the pointing device 320 is realized by appropriately reading and executing a program recorded in a ROM, a RAM, or the like (not shown) by a CPU (not shown).

つぎに、この実施の形態3の受光部311とポインティングデバイス320との関係を説明する。   Next, the relationship between the light receiving unit 311 and the pointing device 320 according to the third embodiment will be described.

図9は、実施の形態3の受光部とポインティングデバイスとの関係を説明する図である。   FIG. 9 is a diagram illustrating the relationship between the light receiving unit and the pointing device according to the third embodiment.

(a)に配置状態、(b)に受光部の構造を示す。   (A) shows the arrangement state, and (b) shows the structure of the light receiving section.

(a)において、受光部311は、光線を受光しているエリアを検知するエリアセンサであり、ポインティングデバイス320からの光線を受光する。   In (a), the light receiving unit 311 is an area sensor that detects an area that receives a light beam, and receives the light beam from the pointing device 320.

また、(b)に示すように、受光部311は、筐体311aに対向させて取り付けるエリアセンサ311bとレンズ311cとで構成される。   Further, as shown in (b), the light receiving unit 311 includes an area sensor 311b and a lens 311c that are attached to face the housing 311a.

図10は、実施の形態3の発光受光動作を説明する図である。   FIG. 10 is a diagram for explaining the light emitting / receiving operation of the third embodiment.

図11は、実施の形態3のポインティングデバイスが表示画面の中央・正面向きの場合の説明図である。   FIG. 11 is an explanatory diagram when the pointing device according to the third embodiment is oriented toward the center / front of the display screen.

図12は、実施の形態3のポインティングデバイスが表示部の中央・角度を持つ向きの場合の説明図である。   FIG. 12 is an explanatory diagram in the case where the pointing device according to the third embodiment is oriented with the center and angle of the display unit.

また、図13は、実施の形態3のポインティングデバイスが表示部の斜め中央向きの場合の説明図である。   FIG. 13 is an explanatory diagram when the pointing device according to the third embodiment is oriented obliquely toward the center of the display unit.

なお、ポインティングデバイス320から発光される光線は、中心に高輝度な光線を含む拡散光線とし、レンズ311cによって集められて、エリアセンサ311bで受光されるものとする。   The light emitted from the pointing device 320 is a diffused light including a high-luminance light at the center, collected by the lens 311c, and received by the area sensor 311b.

このとき、制御部312が、拡散光線のフォーカス状態の発光点を認識することによって発光点の位置を正確に割り出す。   At this time, the control unit 312 accurately determines the position of the light emitting point by recognizing the light emitting point in the focused state of the diffused light.

さらに、制御部313は、デフォーカス状態の発光の広がりの状態から、ポインティングデバイス320の位置を認識する。   Further, the control unit 313 recognizes the position of the pointing device 320 from the state of light emission spread in the defocused state.

たとえば、図11に示す(1),(3)のように、発光点に対して同心円状にデフォーカスされている場合には、制御部312はポインティングデバイス320が表示部314の画面に対して中央・正面向きと判断する。   For example, as in (1) and (3) shown in FIG. 11, when defocusing is performed concentrically with respect to the light emitting point, the control unit 312 causes the pointing device 320 to be on the screen of the display unit 314. Judged to be center / front-facing.

図12に示す(1),(3)のように、発光点に対して偏ってデフォーカスされているとともに、(2)に示すように発光点が中央にある場合には、制御部312はポインティングデバイス320が表示部314の画面に対して中央・角度を持つ向きと判断する。   When (1) and (3) shown in FIG. 12 are defocused with respect to the light emitting point and the light emitting point is at the center as shown in (2), the control unit 312 It is determined that the pointing device 320 has a center / angle orientation with respect to the screen of the display unit 314.

また、図13に示す(1),(3)のように、発光点に対して偏ってデフォーカスされるとともに、(2)の発光点が中心からずれている場合には、制御部312はポインティングデバイス320が表示部314の画面に対して斜めから中央向きと判断する。   In addition, as shown in (1) and (3) in FIG. 13, when the light emitting point is defocused and deviated with respect to the light emitting point, the control unit 312 The pointing device 320 determines that the screen is obliquely directed toward the center with respect to the screen of the display unit 314.

さらに図13に示されるように、フォーカス位置での発光点の位置に対して、フォーカスが近距離側にずれてデフォーカスになったときの発光点の位置で上下左右どちらにシフトするか、フォーカスが遠距離側にずれてデフォーカスになったときの発光点の位置と上下左右どちらにシフトするかを検出することによって、ポインティングデバイスが表示画面に対して、上下左右どちらに傾いた位置から画面314をねらっているかを割り出すことができる。   Further, as shown in FIG. 13, whether the light emission point position at the focus position shifts up, down, left, or right at the light emission point position when the focus shifts to the near distance side and becomes defocused. By detecting whether the light emitting point is shifted to the far side or defocused and whether it shifts up, down, left, or right, the pointing device moves from the position tilted up, down, left, or right with respect to the display screen. You can determine if you are aiming for 314.

したがって、上記実施の形態3によれば、フォーカス位置で発光点を検出することにより、発光点の位置を正確に割り出し、また、デフォーカス位置(若干ピントをずらせた位置を検出して、発光点の光の広がりの偏りを検出するようにしたため、ポインティングデバイスが表示画面に対してどの位置でどの方向を向いているかを、最高輝度点(発光点)の位置と広がりの偏りとからが割り出すことができる。   Therefore, according to the third embodiment, by detecting the light emitting point at the focus position, the position of the light emitting point is accurately determined, and the defocus position (a slightly out of focus position is detected to detect the light emitting point). Because the light spread bias is detected, the position of the pointing device and the direction of the display screen can be determined from the position of the highest luminance point (light emitting point) and the spread bias. Can do.

なお、ポインティングデバイスの発光部の光の広がり方の特性は、あらかじめ実験等を行って定数として用意すれば、さらに正確に割り出すことができる。   Note that the characteristics of how the light of the light emitting part of the pointing device spreads can be determined more accurately by conducting experiments and the like in advance and preparing them as constants.

したがって、ユーザーが表示画面の正面で操作していて、そこからまっすぐ表示画面をねらっているとか、表示画面の端をねらっているとかの状態や、ユーザーが表示画面に角度を持った斜めの位置から操作していて、そこから、表示画面中央をねらっているとか、表示画面の端をねらっているとかの状態を、制御部で認識することが可能なる。   Therefore, when the user is operating in front of the display screen and is aiming straight at the display screen or aiming at the edge of the display screen, or an oblique position where the user has an angle with the display screen It is possible for the control unit to recognize whether the display screen is aimed at the center of the display screen or the end of the display screen.

なお、上記実施の形態1〜3において、ポインティングデバイスの3次元空間上の移動状態の検出の際の座標系は、表示画面上の座標系と同一とする。   In the first to third embodiments, the coordinate system used when detecting the movement state of the pointing device in the three-dimensional space is the same as the coordinate system on the display screen.

また、表示画面上に仮想的な3次元空間を表示している場合には、その仮想的な3次元空間の座標系を平行移動した3次元の座標系をポインティングデバイスの移動を検出する座標系としてもよい。   Further, when a virtual three-dimensional space is displayed on the display screen, a coordinate system for detecting the movement of the pointing device is converted into a three-dimensional coordinate system obtained by translating the coordinate system of the virtual three-dimensional space. It is good.

たとえば、画面上で奥行き方向にポインタを移動させる場合には、ユーザーはポインティングデバイスを前方に移動させ、画面上で手前方向にポインタを移動させる場合にはポインティングデバイスを後方に移動させる。   For example, when moving the pointer in the depth direction on the screen, the user moves the pointing device forward, and when moving the pointer forward on the screen, the user moves the pointing device backward.

これによれば、たとえば、3次元シミュレーションゲームなどにおいて、画面上のキャラクター(ポインタ)動きがユーザーの体感によってリアルに表現することも可能になる。   According to this, for example, in a three-dimensional simulation game, the character (pointer) movement on the screen can be realistically expressed by the user's experience.

1 ポインティングデバイス
2 ディスプレイ
3 ポインタ
100 ポインティングシステム
110 端末装置
111 受光部
112 制御部
113 主機能部
113 制御部
114 表示部
120 ポインティングデバイス
121 押しボタン
122 移動状態検出部
123 制御部
124 発光部
200 ポインティングシステム
210 端末装置
211 受光部
211 端末装置
212 制御部
213 主機能部
214 表示部
214 表示部
220 ポインティングデバイス
221 押しボタン
222 制御部
223 発光部
300 ポインティングシステム
310 端末装置
311b エリアセンサ
311c レンズ
311 受光部
311a 筐体
312 制御部
313 主機能部
313 制御部
314 表示部
320 ポインティングデバイス
321 押しボタン
322 制御部
323 発光部
DESCRIPTION OF SYMBOLS 1 Pointing device 2 Display 3 Pointer 100 Pointing system 110 Terminal device 111 Light receiving part 112 Control part 113 Main function part 113 Control part 114 Display part 120 Pointing device 121 Push button 122 Movement state detection part 123 Control part 124 Light emission part 200 Pointing system 210 Terminal device 211 Light receiving unit 211 Terminal device 212 Control unit 213 Main function unit 214 Display unit 214 Display unit 220 Pointing device 221 Push button 222 Control unit 223 Light emitting unit 300 Pointing system 310 Terminal device 311b Area sensor 311c Lens 311 Light receiving unit 311a Case 312 Control Unit 313 Main Function Unit 313 Control Unit 314 Display Unit 320 Pointing Device 321 Push Button 322 Control Unit 323 Light unit

Claims (1)

ポインティングデバイスおよび端末装置から構成されるポインティングシステムにおいて、
前記ポインティングデバイスが、連続発光または断続発光をする光源体を備え、
前記端末装置が、
前記ポインティングデバイスからの光線を検出する複数の受光センサを配置した検出手段と、
前記検出手段の受光状態でポインティングデバイスの向きを判断する判断手段と、
ディスプレイ画面上にポインタを表示するポインタ表示手段と、
前記判断手段によって判断されたポインティングデバイスの向きに応じて前記ポインタ表示手段によって表示されたポインタを移動させる移動手段とを備え
前記検出手段は、前記ポインティングデバイスの初期位置の設定のため、前記ポインティングデバイスを使用するユーザが、前記光源体を振りながら発光させた場合の光線を検出し、
前記判断手段は、前記検出手段が検出した前記光線の受光強度が一番高かった位置を、前記ポインティングデバイスの初期位置として認識し、その後の前記検出手段における受光状態と前記初期位置認識時の受光状態とを比較することで、前記ポインティングデバイスの移動状態を認識する
ことを特徴とするポインティングシステム。
In a pointing system composed of a pointing device and a terminal device,
The pointing device includes a light source body that emits light continuously or intermittently ;
The terminal device is
A detecting means arranged with a plurality of light receiving sensors for detecting light from the pointing device;
Determining means for determining the orientation of the pointing device in the light receiving state of the detecting means;
Pointer display means for displaying a pointer on the display screen;
And a moving means for moving the pointer displayed by said pointer display means according to the orientation of the pointing device is determined by said determining means,
The detection means detects a light beam when a user using the pointing device emits light while shaking the light source body for setting an initial position of the pointing device;
The determination means recognizes the position where the light reception intensity of the light beam detected by the detection means is the highest as the initial position of the pointing device, and then the light reception state in the detection means and the light reception at the time of the initial position recognition. A pointing system that recognizes a moving state of the pointing device by comparing the state .
JP2009183683A 2009-08-06 2009-08-06 Pointing system Expired - Fee Related JP4824799B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009183683A JP4824799B2 (en) 2009-08-06 2009-08-06 Pointing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009183683A JP4824799B2 (en) 2009-08-06 2009-08-06 Pointing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000276692A Division JP2002091692A (en) 2000-09-12 2000-09-12 Pointing system

Publications (2)

Publication Number Publication Date
JP2009301564A JP2009301564A (en) 2009-12-24
JP4824799B2 true JP4824799B2 (en) 2011-11-30

Family

ID=41548337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009183683A Expired - Fee Related JP4824799B2 (en) 2009-08-06 2009-08-06 Pointing system

Country Status (1)

Country Link
JP (1) JP4824799B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011102656A2 (en) * 2010-02-17 2011-08-25 Samsung Electronics Co., Ltd. Apparatus and method for providing user interface
JP5521809B2 (en) 2010-06-17 2014-06-18 ソニー株式会社 Pointing system, control device, and control method
KR101815972B1 (en) 2010-12-30 2018-01-09 삼성전자주식회사 Apparatus and method for sensing high precision signal using infrared light
JP2013205983A (en) 2012-03-27 2013-10-07 Sony Corp Information input apparatus, information input method, and computer program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265637A (en) * 1992-03-16 1993-10-15 Toshiba Corp Three-dimensional pointing device
JP2901476B2 (en) * 1993-12-27 1999-06-07 アルプス電気株式会社 Position detecting device and position detecting method
JP3377431B2 (en) * 1998-03-03 2003-02-17 シャープ株式会社 3D position / direction indicator

Also Published As

Publication number Publication date
JP2009301564A (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP2002091692A (en) Pointing system
JP5490720B2 (en) Input device for scanning beam display
US20120019488A1 (en) Stylus for a touchscreen display
KR100449710B1 (en) Remote pointing method and apparatus therefor
JP5784003B2 (en) Multi-telepointer, virtual object display device, and virtual object control method
KR100734894B1 (en) Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
JP6000797B2 (en) Touch panel type input device, control method thereof, and program
JP2003114755A (en) Device for inputting coordinates
CN104956307A (en) Methods for system engagement via 3d object detection
JP6727081B2 (en) Information processing system, extended input device, and information processing method
JP4824799B2 (en) Pointing system
KR101282361B1 (en) Apparatus and Method for Providing 3D Input Interface
WO2003079179A1 (en) Motion mouse system
JP7294350B2 (en) Information processing device, information processing method, and program
KR20170129947A (en) Interactive projector and interative projector system
KR20080070786A (en) Automatic scroll type optical pen-mouse and method of scrolling automatically thereof
US20120218185A1 (en) Non-directional mouse
JP2018156304A (en) Touch panel system, method for controlling touch panel system, and program
JP4824798B2 (en) Pointing system
JP2014209336A (en) Information processing device and input support method
US8294673B2 (en) Input device that adjusts its operation mode according to its operation direction and a control method thereof
JP4157577B2 (en) Coordinate input device
JP2006338328A (en) Operation system, processor, indicating device, operating method, and program
KR20080017194A (en) Wireless mouse and driving method thereof

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091108

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110908

R150 Certificate of patent or registration of utility model

Ref document number: 4824799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees