JP2015141686A - Pointing device, information processing device, information processing system, and method for controlling pointing device - Google Patents

Pointing device, information processing device, information processing system, and method for controlling pointing device Download PDF

Info

Publication number
JP2015141686A
JP2015141686A JP2014015808A JP2014015808A JP2015141686A JP 2015141686 A JP2015141686 A JP 2015141686A JP 2014015808 A JP2014015808 A JP 2014015808A JP 2014015808 A JP2014015808 A JP 2014015808A JP 2015141686 A JP2015141686 A JP 2015141686A
Authority
JP
Japan
Prior art keywords
pointing device
sub
main
touch panel
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014015808A
Other languages
Japanese (ja)
Other versions
JP6364790B2 (en
Inventor
秀樹 宮本
Hideki Miyamoto
秀樹 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014015808A priority Critical patent/JP6364790B2/en
Publication of JP2015141686A publication Critical patent/JP2015141686A/en
Application granted granted Critical
Publication of JP6364790B2 publication Critical patent/JP6364790B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To improve the operation performance of a pointing device.SOLUTION: A pointing device 10 includes: main operation means (an optical sensor unit 30, displacement detection unit 31, operation button 40, and operation detection unit 41) that performs at least the operation of specifying a coordinate position; and sub-operation means (a touch panel 20 and touch operation detection unit 21) that performs a predetermined operation on the basis of the coordinate position specified by the main operation means. The main operation means and sub-operation means can be switched.

Description

本発明は、ポインティングデバイス、情報処理装置、情報処理システムおよびポインティングデバイスの制御方法に関する。   The present invention relates to a pointing device, an information processing apparatus, an information processing system, and a pointing device control method.

パーソナルコンピュータなどの情報処理装置の入力装置であるポインティングデバイスとして、マウスが広く用いられている。従来のボール式マウスは、載置面の汚れによって精度が低下し易かったが、最近では、汚れにくく清掃が容易な光学式(オプティカル式)マウスが主流となってきている。かかる光学式マウスは、赤外線等の反射波を観測することで、マウスとマウスの載置面との変位を検出している。   A mouse is widely used as a pointing device that is an input device of an information processing apparatus such as a personal computer. Conventional ball-type mice have been easily degraded in accuracy due to dirt on the mounting surface, but recently, optical (optical) mice that are less dirty and easy to clean have become mainstream. Such an optical mouse detects displacement between the mouse and the mounting surface of the mouse by observing reflected waves such as infrared rays.

また、ポインティングデバイスとして、ペンの形をした受光装置を表示装置に接触させ、その位置が光るタイミングを拾い、画面上の位置を認識するライトペンや、平板状のセンサを指でなぞることでマウスポインタの操作をするタッチパッドなどが普及してきている。   In addition, as a pointing device, a pen-shaped light receiving device is brought into contact with the display device, the timing when the position shines is picked up, and a light pen that recognizes the position on the screen or a flat sensor is traced with a finger. Touchpads that operate pointers have become popular.

ここで、ポインティングデバイスを用いて所定の範囲を選択し、選択範囲について、ポインティングデバイスに付随するボタンを操作して、所定の処理を実行しようとする際に、所望の選択範囲がうまく選択できず、意図せずにずれてしまうことがある。   Here, when a predetermined range is selected using a pointing device and a button associated with the pointing device is operated with respect to the selected range to execute a predetermined process, the desired selection range cannot be selected well. , It may shift unintentionally.

例えば、マウスを用いてディスプレイに表示された複数のオブジェクト(アイコン)のうち所定範囲にある複数のアイコンを選択し、選択された複数のアイコンを削除する操作を考える。一般にマウスを用いた所定範囲の選択は、マウスのドラッグアンドドロップ操作によりなされる。また、選択開始位置は、ドラッグ開始時(ボタンを押しながら移動を開始する時点)の位置であり、選択終了位置は、ドロップ時(移動を完了してボタンを離す時点)の位置である。   For example, consider an operation of selecting a plurality of icons within a predetermined range from a plurality of objects (icons) displayed on a display using a mouse and deleting the selected plurality of icons. In general, selection of a predetermined range using a mouse is performed by a mouse drag-and-drop operation. The selection start position is the position at the start of dragging (when the movement starts while pressing the button), and the selection end position is the position at the time of dropping (the time when the movement is completed and the button is released).

しかしながら、ドラッグ開始時のクリック操作を行う際、ボタンを押下する反動で所望の開始位置からずれてしまう場合がある。このような指定位置のずれが生じてしまうと、選択対象としたい複数のオブジェクトのうち一部のオブジェクトの選択をすることができず、再度、ドラッグアンドドロップ操作による座標指定を行うことが必要となる。   However, when a click operation is performed at the start of dragging, there is a case where the button is deviated from a desired start position due to the reaction of pressing the button. If such a shift in the designated position occurs, it is not possible to select some of the plurality of objects to be selected, and it is necessary to designate coordinates by drag and drop operation again. Become.

また、ドロップ操作時のクリック解除操作を行った時、カーソル(ポインタ)は、選択範囲の終点(端の位置)にある。そのため、例えば、右クリックなどにより次の操作を実行しようとすると、マウスの指示位置がわずかにずれていた場合などにおいて、選択範囲外での操作となり、選択範囲が解除されてしまう。このマウスの指定位置のずれは、ドロップ時において、クリック解除を行うタイミングよりもマウスを停止させるタイミングが遅いと生じてしまうため、頻繁に生じやすい。この場合も再度、ドラッグアンドドロップ操作による座標指定を行うことが必要となる。   Further, when the click releasing operation at the time of the drop operation is performed, the cursor (pointer) is at the end point (end position) of the selection range. For this reason, for example, if the next operation is to be executed by right-clicking or the like, the operation is performed outside the selection range when the pointing position of the mouse is slightly shifted, and the selection range is released. This shift in the designated position of the mouse is likely to occur frequently at the time of dropping because it occurs when the timing for stopping the mouse is later than the timing for releasing the click. In this case as well, it is necessary to designate coordinates again by a drag-and-drop operation.

また、ライトペンやタッチパッド等、操作を指示する際に指定された絶対座標を取得するポインティングデバイスでも、同様に、意図しない座標のズレが発生してしまう。特に、ライトペンや、タブレットデバイスのスタイラスなどに付属するボタンを押下する場合、ポインティングデバイスを保持する支点と位置を指示する作用点(先端部)の間に押下するボタンである力点が存在することとなるため、ずれが発生しやすい。   Similarly, a pointing device that acquires absolute coordinates specified when an operation is instructed, such as a light pen or a touchpad, similarly causes an unintended coordinate shift. In particular, when a button attached to a light pen or a stylus of a tablet device is pressed, a force point that is a button to be pressed exists between a fulcrum holding the pointing device and an action point (tip) indicating the position. Therefore, deviation is likely to occur.

例えば、特許文献1には、タッチスクリーンディスプレイと、タッチスクリーンディスプレイを振動させるモータと、ソフトウェアタッチパッドをタッチスクリーンディスプレイ(LCD)に表示させるソフトウェアタッチパッド表示部と、タッチスクリーンディスプレイに対するタッチ位置を判別するタッチ位置判別部と、判別されたタッチ位置がソフトウェアタッチパッド内からソフトウェアタッチパッド外に移動した場合に、タッチ位置がソフトウェアタッチパッド外にある間、モータを振動させるように制御する振動制御部と、を有する情報処理装置が開示されている。   For example, Patent Literature 1 discloses a touch screen display, a motor that vibrates the touch screen display, a software touch pad display unit that displays a software touch pad on the touch screen display (LCD), and a touch position on the touch screen display. And a vibration control unit that controls the motor to vibrate while the touch position is outside the software touch pad when the determined touch position moves from the software touch pad to the outside of the software touch pad. Are disclosed.

特許文献1では、タッチスクリーンに設定された特定のエリアに対する操作の操作性の向上を図っているが、情報処理装置が備えるタッチスクリーンディスプレイを振動させる構成であり、ポインティングデバイスの構成により上記の問題を解決できるものではない。   In Patent Document 1, the operability of a specific area set on the touch screen is improved, but the touch screen display included in the information processing device is configured to vibrate, and the above problem is caused by the configuration of the pointing device. Cannot be solved.

そこで本発明は、1のポインティングデバイスにおいて、操作内容の目的に応じて、主ポインティングデバイスと副ポインティングデバイスとで操作を分担させることで、操作性能を向上することができるポインティングデバイスを提供することを目的とする。   Therefore, the present invention provides a pointing device capable of improving the operation performance by sharing the operation between the main pointing device and the sub pointing device in accordance with the purpose of the operation content in one pointing device. Objective.

かかる目的を達成するため、本発明に係るポインティングデバイスは、少なくとも座標位置を指定する操作を実行する主操作手段と、前記主操作手段で指定された前記座標位置に基づいて所定の操作を実行する副操作手段と、を備え、前記主操作手段と前記副操作手段とを切替可能としたものである。   In order to achieve such an object, a pointing device according to the present invention executes at least a main operation unit that performs an operation of designating a coordinate position and a predetermined operation based on the coordinate position designated by the main operation unit. Sub-operating means, and the main operating means and the sub-operating means can be switched.

本発明によれば、ポインティングデバイスの操作性能を向上することができる。   According to the present invention, the operating performance of the pointing device can be improved.

第1の実施形態に係るポインティングデバイスの外観斜視図である。1 is an external perspective view of a pointing device according to a first embodiment. ポインティングデバイスと情報処理装置からなる情報処理システムのブロック図である(第1の実施形態)。1 is a block diagram of an information processing system including a pointing device and an information processing apparatus (first embodiment). ポインティングデバイスの操作の一例を示すフローチャートである。6 is a flowchart illustrating an example of an operation of a pointing device. 情報処理装置の表示部に3つのオブジェクトが表示されている様子およびオブジェクトの選択操作を説明する説明図である(第1の実施形態)。It is explanatory drawing explaining a mode that three objects are displayed on the display part of information processing apparatus, and selection operation of an object (1st Embodiment). スプレッド操作の説明図である。It is explanatory drawing of spread operation. 情報処理装置の表示部に3つのオブジェクトが表示されている様子およびオブジェクトの選択操作を説明する説明図である(第2の実施形態)。It is explanatory drawing explaining a mode that three objects are displayed on the display part of information processing apparatus, and selection operation of an object (2nd Embodiment). 第3の実施形態に係るポインティングデバイスの外観斜視図である。It is an external appearance perspective view of the pointing device which concerns on 3rd Embodiment. ポインティングデバイスと情報処理装置からなる情報処理システムのブロック図である(第3の実施形態)。It is a block diagram of the information processing system which consists of a pointing device and information processing apparatus (3rd Embodiment). 情報処理装置の表示部に3つのオブジェクトが表示されている様子およびオブジェクトの選択操作を説明する説明図である(第3の実施形態)。It is explanatory drawing explaining a mode that three objects are displayed on the display part of information processing apparatus, and selection operation of an object (3rd Embodiment). 第4の実施形態に係るポインティングデバイスの外観図である。It is an external view of the pointing device which concerns on 4th Embodiment.

以下、本発明に係る構成を図1から図10に示す実施の形態に基づいて詳細に説明する。   Hereinafter, a configuration according to the present invention will be described in detail based on the embodiment shown in FIGS.

[第1の実施形態]
(ポインティングデバイスの構成)
図1に本実施形態に係るポインティングデバイスの外観図を示す。図1に示すポインティングデバイス10は、タッチパネル20を備えた光学式マウスである。ポインティングデバイス10は、上面側にタッチパネル20が設けられるとともに、操作ボタン40が左側面に設けられている。また、図示されない底面側には、発光器と受光器を備え、移動の量、方向、速度を光学的に読み取る光学センサ部30が設けられている。
[First Embodiment]
(Pointing device configuration)
FIG. 1 shows an external view of a pointing device according to the present embodiment. A pointing device 10 shown in FIG. 1 is an optical mouse provided with a touch panel 20. The pointing device 10 is provided with the touch panel 20 on the upper surface side and the operation buttons 40 on the left side surface. An optical sensor unit 30 that includes a light emitter and a light receiver and optically reads the amount, direction, and speed of movement is provided on the bottom surface (not shown).

図1に示すポインティングデバイス10は、例えば、ユーザが右手で操作を行う際、操作ボタン40を親指で、タッチパネル20を人差し指、中指などで操作することが可能となる。   For example, when the user performs an operation with the right hand, the pointing device 10 illustrated in FIG. 1 can operate the operation button 40 with a thumb and the touch panel 20 with an index finger, a middle finger, or the like.

なお、操作ボタン40およびタッチパネル20の配置位置は一例であって、これに限られるものではない。また、図1では、操作ボタン40がいわゆる左クリック用のLボタン40aと右クリック用のRボタン40bの2つのボタンからなる例を示しているが、操作ボタン40の数は限られるものではなく、1つであっても3以上であっても良い。また、スクロール操作を可能とするホイール等が設けられていてもよい。   In addition, the arrangement position of the operation button 40 and the touch panel 20 is an example, and is not limited thereto. FIG. 1 shows an example in which the operation button 40 includes two buttons, a so-called left click L button 40a and a right click R button 40b. However, the number of the operation buttons 40 is not limited. There may be one or three or more. Further, a wheel or the like that enables a scroll operation may be provided.

また、図2に、図1に示すポインティングデバイス10と情報処理装置70からなる情報処理システムのブロック図を示す。図2に示すように、ポインティングデバイス10は、タッチパネル20と、光学センサ部30と、操作ボタン40と、ポインティングデバイス全体の制御を行うコントローラ50と、情報処理装置70に信号を出力する信号出力部60と、を備えている。   FIG. 2 is a block diagram of an information processing system including the pointing device 10 and the information processing apparatus 70 shown in FIG. As shown in FIG. 2, the pointing device 10 includes a touch panel 20, an optical sensor unit 30, an operation button 40, a controller 50 that controls the entire pointing device, and a signal output unit that outputs a signal to the information processing apparatus 70. 60.

また、タッチ操作検出部21、変位検出部31、および操作検出部41を備えており、タッチ操作検出部21は、タッチパネル20上でのユーザによる指、スライタスペンなどでの操作内容を検出し、これをコントローラ50へ送る。また、変位検出部31は、光学センサ部30での変位量、変位方向を検出し、これをコントローラ50へ送る。また、操作検出部41は、操作ボタン40でのクリックの有無等を検出して、これをコントローラ50へ送る。また、コントローラ50では、操作内容、変位量、変位方向、クリックの有無等に基づいて、信号を生成し、信号出力部60から情報処理装置70へ信号を出力させる。   The touch operation detection unit 21, the displacement detection unit 31, and the operation detection unit 41 are provided. The touch operation detection unit 21 detects the operation content of the user on the touch panel 20 with a finger, a sli- tus pen, and the like. Is sent to the controller 50. Further, the displacement detection unit 31 detects the displacement amount and the displacement direction in the optical sensor unit 30 and sends them to the controller 50. Further, the operation detection unit 41 detects the presence / absence of a click on the operation button 40 and sends it to the controller 50. Further, the controller 50 generates a signal based on the operation content, the amount of displacement, the displacement direction, the presence / absence of a click, and the like, and causes the signal output unit 60 to output the signal to the information processing device 70.

また、コントローラ50は、信号出力部60から情報処理装置70に出力する信号にポインティングデバイス10が主ポインティングデバイスとして機能している状態と、副ポインティングデバイスとして機能している状態と、を判別可能な信号を出力させる。情報処理装置70の制御部では、当該信号に基づいてポインティングデバイス10がいずれの状態であるのかを判断し、状態に応じた操作内容を実現させる。   Further, the controller 50 can discriminate between a state in which the pointing device 10 functions as a main pointing device and a state in which the pointing device 10 functions as a sub pointing device in a signal output from the signal output unit 60 to the information processing apparatus 70. Output a signal. The control unit of the information processing device 70 determines in which state the pointing device 10 is based on the signal, and realizes the operation content corresponding to the state.

なお、ポインティングデバイス10と情報処理装置70との通信は、有線であっても、無線であっても良い。無線通信の場合、信号出力部60では、赤外線や電磁波(Bluetooth(登録商標)、ZigBee、NFC(Near Field Communication)等)を利用し、情報処理装置70に対して操作内容、変位量、変位方向、クリックの有無等を含む無線信号を送信する。なお、無線通信を行う場合、ポインティングデバイス10は充電式または電池式の電源を備えている。   Note that the communication between the pointing device 10 and the information processing apparatus 70 may be wired or wireless. In the case of wireless communication, the signal output unit 60 uses infrared rays or electromagnetic waves (Bluetooth (registered trademark), ZigBee, NFC (Near Field Communication), etc.) to operate the information processing device 70, operation amount, displacement amount, displacement direction. A wireless signal including the presence / absence of a click is transmitted. In the case of performing wireless communication, the pointing device 10 includes a rechargeable or battery-type power source.

(ポインティングデバイスの制御)
本実施形態に係るポインティングデバイスは、少なくとも座標位置を指定する操作を実行する主操作手段と、主操作手段で指定された座標位置に基づいて所定の操作を実行する副操作手段と、を備え、主操作手段と副操作手段とを切替可能としたものである。
(Control of pointing device)
The pointing device according to the present embodiment includes at least a main operation unit that executes an operation that specifies a coordinate position, and a sub operation unit that executes a predetermined operation based on the coordinate position specified by the main operation unit, The main operation means and the sub operation means can be switched.

ここで、本実施形態においては、主ポインティングデバイス(主操作手段)とは、光学センサ部30および変位検出部31によるポインティングデバイス10の相対移動距離、移動方向、速度の検出と、操作ボタン40および操作検出部41によるボタン操作の検出である。また、副ポインティングデバイス(副操作手段)とは、タッチパネル20とタッチ操作検出部21によるタッチ操作の検出である。なお、本実施形態では、タッチパネル20が少なくとも2点以上の座標検出が可能なタッチパネル(複数点検出タッチパネルともいう)である例について説明する。   Here, in the present embodiment, the main pointing device (main operation means) means detection of the relative movement distance, movement direction, and speed of the pointing device 10 by the optical sensor unit 30 and the displacement detection unit 31, and the operation buttons 40 and This is detection of a button operation by the operation detection unit 41. Further, the sub pointing device (sub operation means) is detection of a touch operation by the touch panel 20 and the touch operation detection unit 21. In the present embodiment, an example in which the touch panel 20 is a touch panel capable of detecting coordinates of at least two points (also referred to as a multi-point detection touch panel) will be described.

図3は、ポインティングデバイス10の操作を示すフローチャートである。また、図4は、情報処理装置70のモニターなどの表示部71に3つのオブジェクト81,82,83が表示されている様子を示す模式図である。以下、この3つのオブジェクト81,82,83を同時に選択して、3つのオブジェクト81,82,83に所定の処理をする操作(コピー動作、切り取り動作など)について説明する。   FIG. 3 is a flowchart showing the operation of the pointing device 10. FIG. 4 is a schematic diagram showing a state in which three objects 81, 82, 83 are displayed on a display unit 71 such as a monitor of the information processing apparatus 70. Hereinafter, an operation (copy operation, cut operation, etc.) for selecting the three objects 81, 82, 83 at the same time and performing predetermined processing on the three objects 81, 82, 83 will be described.

先ず、図4(a)に示すように、主ポインティングデバイスにより操作対象オブジェクト(ここでは、オブジェクト81とする)へポインタ80を移動させる(S101)。変位検出部31はポインティングデバイス10の変位量、変位方向を検出して、この変位量、変位方向に対応して、ポインタ80は移動する。つまり、光学式マウスを用いた通常のポインタ位置の移動操作である。   First, as shown in FIG. 4A, the pointer 80 is moved to an operation target object (here, object 81) by the main pointing device (S101). The displacement detector 31 detects the displacement amount and the displacement direction of the pointing device 10, and the pointer 80 moves corresponding to the displacement amount and the displacement direction. That is, it is a normal operation of moving the pointer position using an optical mouse.

次いで、副ポインティングデバイスによる選択操作を開始する(S102)。本実施形態では、図5に示すように、タッチパネル20上で2本の指を一か所(図中の点)から互いに離れる方向に動かす操作(スプレッド操作)を行うものである。このスプレッド操作に対応して、図4(b)に示す点線で示す選択枠84の大きさを操作することができる。なお、タッチパネル20上での選択枠84の操作方法は、スプレッド操作に限られるものではない。また、本実施形態では、副ポインティングデバイスによる操作開始時のタッチパネル20の中央位置を主ポインティングデバイスにより指示された座標位置としている。また、図4(b)に示すように、副ポインティングデバイスの操作開始時において、操作開始位置に十字ポインタ85が表示される。   Next, the selection operation by the sub pointing device is started (S102). In the present embodiment, as shown in FIG. 5, an operation (spread operation) is performed on the touch panel 20 to move two fingers away from one place (points in the figure). Corresponding to this spread operation, the size of the selection frame 84 indicated by the dotted line shown in FIG. 4B can be operated. Note that the operation method of the selection frame 84 on the touch panel 20 is not limited to the spread operation. In the present embodiment, the center position of the touch panel 20 at the start of the operation by the sub pointing device is the coordinate position designated by the main pointing device. As shown in FIG. 4B, a cross pointer 85 is displayed at the operation start position when the operation of the auxiliary pointing device is started.

S102の操作の開始時において、ポインティングデバイス10は、主ポインティングデバイスによる操作から副ポインティング操作による操作に切り替わる。すなわち、タッチパネル20にユーザの指やスライタスペンが接触した時を副ポインティングデバイスによる操作開始のトリガとする。   At the start of the operation of S102, the pointing device 10 is switched from the operation by the main pointing device to the operation by the sub pointing operation. That is, when the user's finger or slate pen is touching the touch panel 20, the operation start trigger by the sub pointing device is used.

そして、点線で示す選択枠84を、操作対象としたいオブジェクトをすべて含んだ所望の大きさとすると、副ポインティングデバイスによる選択操作を終了する(S103)。なお、複数点検出タッチパネルを使用する際は、副ポインティングデバイスの操作終了時の検出された各ポイントに外接する矩形が選択範囲(選択枠84)となる。   When the selection frame 84 indicated by the dotted line has a desired size including all objects to be operated, the selection operation by the sub pointing device is ended (S103). When using the multi-point detection touch panel, a rectangle circumscribing each detected point at the end of the operation of the sub pointing device becomes the selection range (selection frame 84).

S103の操作の終了時において、ポインティングデバイス10は、副ポインティングデバイスによる操作から主ポインティング操作による操作に戻る。なお、副ポインティング操作での操作中(S102〜S103)は、主ポインティングデバイスはロックされ、ポインティングデバイスを変位させてもポインタ80の移動はされない。   At the end of the operation of S103, the pointing device 10 returns from the operation by the sub pointing device to the operation by the main pointing operation. Note that the main pointing device is locked during the sub-pointing operation (S102 to S103), and the pointer 80 is not moved even if the pointing device is displaced.

本実施形態では、タッチパネル20からユーザの指やスライタスペンが離れた時(接触状態の解除時)を副ポインティングデバイスによる操作終了のトリガとする。   In the present embodiment, the time when the user's finger or the sli- tus pen is released from the touch panel 20 (when the contact state is released) is set as a trigger for ending the operation by the sub pointing device.

S103の操作終了時に、図4(c)に示すように、十字ポインタ85および選択枠84の表示は解除され、選択枠84で選択された矩形範囲内のオブジェクト81,82,83が選択された状態となる。この際、ポインタ80の位置から主ポインティングデバイスでの操作となる。そして、次に行われる操作は、選択されたオブジェクトが対象とした所望の操作を指示することができる(S104)。例えば、操作ボタン40を用いて、オブジェクトの切り取り、コピー、削除等の動作を指示することが可能となる。   At the end of the operation of S103, as shown in FIG. 4C, the display of the cross pointer 85 and the selection frame 84 is canceled, and the objects 81, 82, and 83 within the rectangular range selected by the selection frame 84 are selected. It becomes a state. At this time, the main pointing device is operated from the position of the pointer 80. The operation to be performed next can instruct a desired operation targeted by the selected object (S104). For example, the operation buttons 40 can be used to instruct operations such as cutting, copying, and deleting objects.

本実施形態に係るポインティングデバイスによれば、1のポインティングデバイスにおいて、操作内容の目的に応じて、主ポインティングデバイスと副ポインティングデバイスとで操作を分担させることで、操作性能を向上することができる。すなわち、操作対象となるオブジェクトの位置(座標)を指定するための主ポインティングデバイスと、付随する操作を行う副ポインティングデバイスを分けることにより、操作内容に伴う座標移動を排除することで操作性を向上させるとともに、ポインティングデバイス内の位置指定を行う部分が不安定なポインティングデバイスであっても指定された位置の保持を容易にすることができる。   According to the pointing device according to the present embodiment, in one pointing device, the operation performance can be improved by sharing the operation between the main pointing device and the sub pointing device in accordance with the purpose of the operation content. In other words, by separating the main pointing device for specifying the position (coordinates) of the object to be operated and the sub pointing device for performing the accompanying operation, the operability is improved by eliminating the coordinate movement accompanying the operation content. In addition, it is possible to easily hold the designated position even if the pointing device in the pointing device is an unstable pointing device.

よって、操作対象となる座標を指示する際に操作ミスによる意図しない座標のズレが発生しにくく、ズレが生じてしまった場合の座標の再指定操作を不要とすることができる。   Therefore, when designating the coordinates to be operated, an unintended coordinate shift due to an operation error is unlikely to occur, and a coordinate re-designation operation when a shift occurs can be eliminated.

なお、第1の実施形態では、光学マウス部、操作ボタンを主ポインティングデバイスとして、タッチパネルを副ポインティングデバイスとして用いる例について説明したが、タッチパネルを主ポインティングデバイスとして、光学マウス部、操作ボタンを副ポインティングデバイスとして機能させるようにしても良い。以下の実施形態についても同様である。   In the first embodiment, an example in which the optical mouse unit and the operation button are used as the main pointing device and the touch panel is used as the sub pointing device has been described. However, the optical mouse unit and the operation button are used as the sub pointing device with the touch panel as the main pointing device. You may make it function as a device. The same applies to the following embodiments.

[第2の実施形態]
以下、本発明に係るポインティングデバイスの他の実施形態について説明する。なお、上記実施形態と同様の点についての説明は適宜省略する。
[Second Embodiment]
Hereinafter, other embodiments of the pointing device according to the present invention will be described. In addition, description about the same point as the said embodiment is abbreviate | omitted suitably.

上記第1の実施形態では、複数点検出タッチパネルを備える例について説明したが、タッチパネルが単一の座標のみ検出可能な構成(単一点検出タッチパネルともいう)である場合について、第2の実施形態で説明する。単一点検出タッチパネルを用いる場合、選択範囲の始点選択と終点選択とを切り替える操作が必要となる。   In the first embodiment, the example including the multi-point detection touch panel has been described. However, in the second embodiment, the touch panel has a configuration capable of detecting only a single coordinate (also referred to as a single point detection touch panel). explain. When a single point detection touch panel is used, an operation of switching between selection of the start point and end point of the selection range is required.

図6は、情報処理装置70のモニターなどの表示部71に3つのオブジェクト81,82,83が表示されている様子を示す模式図である。以下、この3つのオブジェクト81,82,83を同時に選択して、3つのオブジェクト81,82,83に所定の処理をする操作について説明する。   FIG. 6 is a schematic diagram illustrating a state in which three objects 81, 82, and 83 are displayed on the display unit 71 such as a monitor of the information processing apparatus 70. Hereinafter, an operation of simultaneously selecting the three objects 81, 82, and 83 and performing predetermined processing on the three objects 81, 82, and 83 will be described.

先ず、図6(a)に示すように、主ポインティングデバイスにより操作対象オブジェクト(オブジェクト81)へポインタ80を移動させる(S101)。変位検出部31はポインティングデバイス10の変位量、変位方向を検出して、この変位量、変位方向に対応して、ポインタ80は移動する。   First, as shown in FIG. 6A, the pointer 80 is moved to the operation target object (object 81) by the main pointing device (S101). The displacement detector 31 detects the displacement amount and the displacement direction of the pointing device 10, and the pointer 80 moves corresponding to the displacement amount and the displacement direction.

次いで、副ポインティングデバイスによる選択操作を開始する(S102)。すなわち、タッチパネル20に接触すると、主ポインティングデバイスはロックされ、主ポインティングデバイスにより指示された座標位置からタッチ操作が可能となる。十字ポインタ85がポインタ80の位置に表示される。   Next, the selection operation by the sub pointing device is started (S102). That is, when the touch panel 20 is touched, the main pointing device is locked, and a touch operation can be performed from the coordinate position designated by the main pointing device. A crosshair pointer 85 is displayed at the position of the pointer 80.

そして、図6(b)に示すように、タッチ操作により選択枠84の始点(選択開始位置)を決定する。単一点検出タッチパネルであるため、ユーザはタッチパネル20のスライド操作により、十字ポインタ85を移動させて、始点を決定する。   Then, as shown in FIG. 6B, the start point (selection start position) of the selection frame 84 is determined by a touch operation. Since the touch panel is a single point detection touch panel, the user moves the cross pointer 85 by the slide operation of the touch panel 20 to determine the start point.

そして、所定の切替ボタンが押下されることで、タッチ操作による選択枠84の終点(選択終了位置)の指定へ切り替わる。この時の切替ボタンとして、専用の操作ボタンをポインティングデバイス10に設けても良いが、既存のボタン(Lボタン40a)などを切替ボタンすることができる。すなわち、例えば、副ポインティングデバイスでの操作中にLボタン40aが押下された場合に、選択開始位置の位置指定から選択終了位置の位置指定に切り替える制御を行う。また、再押下された場合に、選択開始終了の位置指定から選択開始位置の位置指定に戻す制御を行う。   Then, when a predetermined switching button is pressed, switching to designation of the end point (selection end position) of the selection frame 84 by the touch operation is performed. As a switching button at this time, a dedicated operation button may be provided in the pointing device 10, but an existing button (L button 40a) or the like can be switched. That is, for example, when the L button 40a is pressed during an operation with the sub-pointing device, control is performed to switch from the position designation of the selection start position to the position designation of the selection end position. In addition, when the button is pressed again, control is performed to return from the designation start / end position designation to the selection start position designation.

切替ボタンが押下されると、図6(c)に示すように、ユーザはタッチパネル20のスライド操作により、十字ポインタ85を移動させて、終点を決定する。なお、単一点検出タッチパネルを使用する際は、始点と終点を含んで形成される矩形が選択範囲(選択枠84)となる。   When the switch button is pressed, as shown in FIG. 6C, the user moves the cross pointer 85 by the slide operation of the touch panel 20 to determine the end point. In addition, when using a single point detection touch panel, the rectangle formed including the start point and the end point becomes the selection range (selection frame 84).

そして、点線で示す選択枠84を、操作対象としたいオブジェクトをすべて含んだ所望の大きさとすると、タッチパネル20への接触を解除して、副ポインティングデバイスによる選択操作を終了する(S103)。   When the selection frame 84 indicated by the dotted line has a desired size including all objects to be operated, the touch on the touch panel 20 is released, and the selection operation by the sub pointing device is ended (S103).

S103の操作終了時に、図6(d)に示すように、十字ポインタ85および選択枠84の表示は解除され、選択枠84で選択された矩形範囲内のオブジェクト81,82,83が選択された状態となる。この際、ポインタ80の位置から主ポインティングデバイスでの操作となる。そして、次に行われる操作は、選択されたオブジェクトが対象とした所望の操作を指示することができる(S104)。   At the end of the operation in S103, as shown in FIG. 6D, the display of the cross pointer 85 and the selection frame 84 is canceled, and the objects 81, 82, and 83 within the rectangular range selected by the selection frame 84 are selected. It becomes a state. At this time, the main pointing device is operated from the position of the pointer 80. The operation to be performed next can instruct a desired operation targeted by the selected object (S104).

なお、第2の実施形態では、切替ボタンの押下により、選択開始位置の位置指定と選択終了位置の位置指定とを切り替えたが、これをタッチパネル20の所定のタッチ操作により判断するようにしても良い。例えば、タッチパネル20への接触を絶ち、すぐに再度接触する操作(タップ操作)により、この切り替えを行うようにしても良い。この場合、S103の接触解除の判断は、タップ操作と判別するために、所定時間以上接触が解除された場合とすればよい。   In the second embodiment, the position designation of the selection start position and the position designation of the selection end position are switched by pressing the switching button, but this may be determined by a predetermined touch operation on the touch panel 20. good. For example, this switching may be performed by an operation (tap operation) in which contact with the touch panel 20 is stopped and contact is immediately made again. In this case, the determination of the contact release in S103 may be made when the contact is released for a predetermined time or more in order to determine the tap operation.

[第3の実施形態]
(ポインティングデバイスの構成)
第1、第2の実施形態では、タッチパネル20を備えるポインティングデバイス10について説明したが、切替ボタンにより、主ポインティングデバイスと副ポインティングデバイスの機能を切り替えるようにしても良い。すなわち、副ポインティングデバイスを主ポインティングデバイスと同じく、光学センサ部30および変位検出部31によるポインティングデバイスの相対移動距離検出と、操作ボタン40および操作検出部41によるボタン操作とするものである。
[Third Embodiment]
(Pointing device configuration)
In the first and second embodiments, the pointing device 10 including the touch panel 20 has been described. However, the functions of the main pointing device and the sub pointing device may be switched by a switching button. That is, as with the main pointing device, the secondary pointing device is the relative movement distance detection of the pointing device by the optical sensor unit 30 and the displacement detection unit 31, and the button operation by the operation button 40 and the operation detection unit 41.

図7に本実施形態に係るポインティングデバイスの外観図を示す。図7に示すポインティングデバイス10は、切替手段としての主/副切替ボタン22を備えた光学式マウスである。ポインティングデバイス10は、上面側に操作ボタン40(Lボタン40a、Rボタン40b)が設けられるとともに、主/副切替ボタン22が左側面に設けられている。また、光学センサ部30が設けられている。なお、3以上の操作ボタン40を有する場合、そのうちの一つを主/副切替ボタン22とするようにしても良い。   FIG. 7 shows an external view of the pointing device according to the present embodiment. The pointing device 10 shown in FIG. 7 is an optical mouse provided with a main / sub switching button 22 as switching means. The pointing device 10 is provided with operation buttons 40 (L button 40a and R button 40b) on the upper surface side, and a main / sub switch button 22 is provided on the left side surface. An optical sensor unit 30 is also provided. If there are three or more operation buttons 40, one of them may be the main / sub switch button 22.

図7に示すポインティングデバイス10は、例えば、ユーザが右手で操作を行う際、主/副切替ボタン22を親指で、操作ボタン40を人差し指、中指などで操作することが可能となる。   The pointing device 10 shown in FIG. 7 can be operated, for example, when the user operates with the right hand, the main / sub switching button 22 with the thumb and the operation button 40 with the index finger, the middle finger, or the like.

また、図8に図7に示すポインティングデバイスのブロック図を示す。図8に示すように、ポインティングデバイス10は、主/副切替ボタン22と、光学センサ部30と、操作ボタン40と、コントローラ50と、情報処理装置70に信号を出力する信号出力部60と、を備えている。   FIG. 8 is a block diagram of the pointing device shown in FIG. As shown in FIG. 8, the pointing device 10 includes a main / sub switching button 22, an optical sensor unit 30, an operation button 40, a controller 50, a signal output unit 60 that outputs a signal to the information processing device 70, It has.

また、切替操作検出部23、変位検出部31、および操作検出部41を備えており、切替操作検出部23は、主/副切替ボタン22のクリックがあったことを検出し、これをコントローラ50へ送る。   The switching operation detection unit 23, the displacement detection unit 31, and the operation detection unit 41 are provided. The switching operation detection unit 23 detects that the main / sub switching button 22 has been clicked, and this is detected by the controller 50. Send to.

(ポインティングデバイスの制御)
本実施形態では、ポインティングデバイス10を主ポインティングデバイスとして使用する場合、Lボタン40aを左クリック操作用、Rボタン40bを右クリック操作用、主/副切替ボタン22を副ポインティングデバイスへの切り替えに使用する。また、ポインティングデバイス10を副ポインティングデバイスとして使用する場合は、Lボタン40aを選択開始位置の選択、Rボタン40bを選択終了位置の選択、主/副切替ボタン22を主ポインティングデバイスへの切り替えに使用するものである。
(Control of pointing device)
In the present embodiment, when the pointing device 10 is used as a main pointing device, the L button 40a is used for a left click operation, the R button 40b is used for a right click operation, and the main / sub switching button 22 is used for switching to a sub pointing device. To do. When the pointing device 10 is used as a sub-pointing device, the L button 40a is used to select a selection start position, the R button 40b is used to select a selection end position, and the main / sub switch button 22 is used to switch to the main pointing device. To do.

図9は、情報処理装置70のモニターなどの表示部71に3つのオブジェクト81,82,83が表示されている様子を示す模式図である。以下、この3つのオブジェクト81,82,83を同時に選択して、3つのオブジェクト81,82,83に所定の処理をする操作について説明する。   FIG. 9 is a schematic diagram showing a state where three objects 81, 82, 83 are displayed on a display unit 71 such as a monitor of the information processing apparatus 70. Hereinafter, an operation of simultaneously selecting the three objects 81, 82, and 83 and performing predetermined processing on the three objects 81, 82, and 83 will be described.

先ず、図9(a)に示すように、主ポインティングデバイスにより操作対象オブジェクト(オブジェクト81)へポインタ80を移動させる(S101)。変位検出部31はポインティングデバイス10の変位量、変位方向を検出して、この変位量、変位方向に対応して、ポインタ80は移動する。   First, as shown in FIG. 9A, the pointer 80 is moved to the operation target object (object 81) by the main pointing device (S101). The displacement detector 31 detects the displacement amount and the displacement direction of the pointing device 10, and the pointer 80 moves corresponding to the displacement amount and the displacement direction.

次いで、副ポインティングデバイスによる選択操作を開始する(S102)。すなわち、主/副切替ボタン22を押下することで、主ポインティングデバイスから副ポインティングデバイスでの操作に切り替わる。   Next, the selection operation by the sub pointing device is started (S102). That is, when the main / sub switching button 22 is pressed, the operation is switched from the main pointing device to the operation with the sub pointing device.

主/副切替ボタン22が押下されることで、ポインタ80の位置に十字ポインタ85が表示されて、図9(b)に示すように、選択枠84の選択開始位置が可能となる。選択開始位置の指定はLボタン40aの押圧よる。次いで、図9(c)に示すように、選択終了位置を指定する。選択終了位置の指定はRボタン40bの押圧よる。   When the main / sub switching button 22 is pressed, a cross pointer 85 is displayed at the position of the pointer 80, and the selection start position of the selection frame 84 becomes possible as shown in FIG. 9B. The selection start position is specified by pressing the L button 40a. Next, as shown in FIG. 9C, the selection end position is designated. The selection end position is specified by pressing the R button 40b.

そして、点線で示す選択枠84を、操作対象としたいオブジェクトをすべて含んだ所望の大きさとすると、副ポインティングデバイスによる選択操作を終了する(S103)。   When the selection frame 84 indicated by the dotted line has a desired size including all objects to be operated, the selection operation by the sub pointing device is ended (S103).

次いで、主/副切替ボタン22が押下されることで、副ポインティングデバイスから主ポインティングデバイスでの操作に戻る。そして、図9(d)に示すように、十字ポインタ85および選択枠84の表示は解除され、選択枠84で選択された矩形範囲内のオブジェクト81,82,83が選択された状態となる。この際、ポインタ80の位置から主ポインティングデバイスでの操作となる。そして、次に行われる操作は、選択されたオブジェクトが対象とした所望の操作を指示することができる(S104)。   Next, when the main / sub switching button 22 is pressed, the operation returns to the operation with the main pointing device from the sub pointing device. Then, as shown in FIG. 9D, the display of the cross pointer 85 and the selection frame 84 is canceled, and the objects 81, 82, and 83 in the rectangular range selected by the selection frame 84 are selected. At this time, the main pointing device is operated from the position of the pointer 80. The operation to be performed next can instruct a desired operation targeted by the selected object (S104).

この第3の実施形態に係るポインティングデバイスによれば、タッチパネルを備えることなく、簡易な構成により、1のポインティングデバイスにおいて、操作内容の目的に応じて、主ポインティングデバイスと副ポインティングデバイスとで操作を分担させることで、操作性能を向上することができる。   According to the pointing device according to the third embodiment, a single pointing device can be operated with the main pointing device and the sub pointing device according to the purpose of the operation content with a simple configuration without providing a touch panel. The operating performance can be improved by sharing.

以上、第1〜第3の実施形態では、ポインティングデバイス10として、光学式マウスを例にしたが、機械式マウスを用いても良い。また、ポインティングデバイス10はマウスに限られるものではなく、ライトペン、タブレット、タッチパッド、タッチパネルなどに適用しても良い。また、ポインティングデバイス10が情報処理装置70本体に設けられる構成であっても良い。   As described above, in the first to third embodiments, the optical mouse is taken as an example of the pointing device 10, but a mechanical mouse may be used. The pointing device 10 is not limited to a mouse, and may be applied to a light pen, a tablet, a touch pad, a touch panel, and the like. Further, the pointing device 10 may be provided in the information processing apparatus 70 main body.

[第4の実施形態]
また、眼鏡型表示装置に適用することもできる。図10は、本発明に係るポインティングデバイスの一実施形態である眼鏡型表示装置の要部拡大図である。このポインティングデバイス(眼鏡型表示装置90)は、ヘッドマウントディスプレイ型であって、操作者の眼球を撮影する撮像装置(撮像装置91)と、撮影画像に基づいて操作者の視線を追尾する制御部と、操作者の視線位置を表示する表示装置93と、タッチパネル94と、を備え、撮像装置91および制御部による表示装置への視線の表示が主ポインティングデバイス、タッチパネル94が副ポインティングデバイスとして機能するものである。
[Fourth Embodiment]
Further, the present invention can be applied to a glasses-type display device. FIG. 10 is an enlarged view of a main part of a glasses-type display device which is an embodiment of the pointing device according to the present invention. The pointing device (glasses-type display device 90) is a head-mounted display type, and includes an imaging device (imaging device 91) that captures an operator's eyeball, and a control unit that tracks the operator's line of sight based on the captured image. And a display device 93 for displaying the operator's line-of-sight position and a touch panel 94. The line-of-sight display on the display device by the imaging device 91 and the control unit functions as a main pointing device, and the touch panel 94 functions as a sub-pointing device. Is.

図10に示す矢印が装着者の視線の方向(前方)を示し、図10では、眼鏡型表示装置90の視線側の部分(フロント部)と、テンプル92の右側の一部を示している。   The arrows shown in FIG. 10 indicate the direction (front) of the wearer's line of sight, and in FIG. 10, the line-of-sight side portion (front portion) of the glasses-type display device 90 and the right part of the temple 92 are illustrated.

図10に示すように、眼鏡型表示装置90のフロント部には、装着者の目の動きを撮影する撮像装置(カメラ)91が設けられている。また、フレーム95には撮影画像に基づいて操作者の視線を追尾するとともに表示装置93へこれを表示させる制御部が内蔵されている。さらに、右側のテンプル92には、タッチパネル94が設けられている。   As shown in FIG. 10, an imaging device (camera) 91 that captures the eye movement of the wearer is provided at the front portion of the glasses-type display device 90. Further, the frame 95 has a built-in control unit that tracks the operator's line of sight based on the photographed image and displays it on the display device 93. Further, a touch panel 94 is provided on the right temple 92.

ここで、撮像装置91は、装着者が表示装置93上のいずれの位置を注視しているか、すなわち、装着者の視線を追尾し、この追尾結果に基づいて、表示装置93上の所定位置を選択するための主ポインティングデバイスとして機能する。そして、所望の選択位置で、例えば、タッチパネル94の操作を開始することで、タッチパネル94を副ポインティングデバイスとして機能させるものである。   Here, the imaging device 91 tracks which position on the display device 93 the wearer is gazing at, that is, the wearer's line of sight, and based on the tracking result, determines a predetermined position on the display device 93. Acts as the main pointing device for selection. Then, for example, by starting an operation of the touch panel 94 at a desired selection position, the touch panel 94 is caused to function as a sub pointing device.

以上説明した本実施形態に係るポインティングデバイスは、グラフィックまたはテキストによる表示装置と表示装置内の任意の座標を指定する為のポインティングデバイスを必要とする情報処理装置に用いることができる。また、マウス、ライトペン、タブレット、タッチパッド、タッチパネル等に適用して、パーソナルコンピュータ(PC)、ワークステーション、携帯端末、スマートフォン、ゲーム機等の情報処理装置に用いることができる。また、カメラによるモーションキャプチャ、視線追尾をポインティングデバイスとして使用する情報処理装置に用いることができる。   The pointing device according to the present embodiment described above can be used in an information processing apparatus that requires a graphic or text display device and a pointing device for designating arbitrary coordinates in the display device. Further, the present invention can be applied to a mouse, a light pen, a tablet, a touch pad, a touch panel, and the like, and can be used for an information processing apparatus such as a personal computer (PC), a workstation, a portable terminal, a smartphone, and a game machine. Further, it can be used for an information processing apparatus that uses motion capture and line-of-sight tracking by a camera as a pointing device.

尚、上述の実施形態は本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変形実施可能である。   The above-described embodiment is a preferred embodiment of the present invention, but is not limited thereto, and various modifications can be made without departing from the gist of the present invention.

10 ポインティングデバイス
20 タッチパネル
21 タッチ操作検出部
22 主/副切替ボタン
23 切替操作検出部
30 光学センサ部
31 変位検出部
40 操作ボタン
40a Lボタン
40b Rボタン
41 操作検出部
50 コントローラ
60 信号出力部
70 情報処理装置
71 表示部
80 ポインタ
81,82,83 オブジェクト
84 選択枠
85 十字ポインタ
90 眼鏡型表示装置
91 撮像装置
92 テンプル
93 表示装置
94 タッチパネル
95 フレーム
DESCRIPTION OF SYMBOLS 10 Pointing device 20 Touch panel 21 Touch operation detection part 22 Main / sub switching button 23 Switching operation detection part 30 Optical sensor part 31 Displacement detection part 40 Operation button 40a L button 40b R button 41 Operation detection part 50 Controller 60 Signal output part 70 Information Processing device 71 Display unit 80 Pointer 81, 82, 83 Object 84 Selection frame 85 Cross pointer 90 Glasses-type display device 91 Imaging device 92 Temple 93 Display device 94 Touch panel 95 Frame

特開2011−181004号公報JP 2011-181004 A

Claims (9)

少なくとも座標位置を指定する操作を実行する主操作手段と、
前記主操作手段で指定された前記座標位置に基づいて所定の操作を実行する副操作手段と、を備え、
前記主操作手段と前記副操作手段とを切替可能としたことを特徴とするポインティングデバイス。
A main operation means for performing at least an operation of designating a coordinate position;
Sub-operation means for executing a predetermined operation based on the coordinate position designated by the main operation means,
A pointing device characterized in that the main operating means and the sub operating means can be switched.
前記主操作手段により、オブジェクトの選択操作を実行し、
前記副操作手段により、前記主操作手段で選択された前記オブジェクトを含む所定範囲を指定する操作を実行し、
前記主操作手段により、前記副操作手段で選択された前記所定範囲について、所定の処理を実行するための操作を実行することを特徴とする請求項1に記載のポインティングデバイス。
The main operation means performs an object selection operation,
The sub-operation means executes an operation for designating a predetermined range including the object selected by the main operation means,
The pointing device according to claim 1, wherein an operation for executing a predetermined process is executed by the main operation unit with respect to the predetermined range selected by the sub-operation unit.
前記主操作手段として、ポインティングデバイスの変位方向および変位量を検出する変位検出手段と、選択操作を行う操作ボタンと、を備えるとともに、
前記副操作手段として、タッチパネルを備えることを特徴とする請求項1または2に記載のポインティングデバイス。
The main operation means includes a displacement detection means for detecting a displacement direction and a displacement amount of the pointing device, and an operation button for performing a selection operation.
The pointing device according to claim 1, further comprising a touch panel as the sub operation unit.
前記タッチパネルへの接触を検出した際に、前記主操作手段による操作を停止し、前記前記タッチパネルへの接触解除を検出した際に、前記主操作手段による操作を再開させることを特徴とする請求項3に記載のポインティングデバイス。   The operation by the main operation unit is stopped when contact with the touch panel is detected, and the operation by the main operation unit is resumed when contact release to the touch panel is detected. 3. The pointing device according to 3. 前記主操作手段による操作と、前記副操作手段による操作を切り替えるための切替手段を備え、
前記切替手段に所定の操作がされた際に、前記主操作手段と前記副操作手段とを切り替えることを特徴とする請求項1または2に記載のポインティングデバイス。
A switching means for switching between the operation by the main operation means and the operation by the sub operation means,
The pointing device according to claim 1 or 2, wherein when a predetermined operation is performed on the switching means, the main operating means and the sub operating means are switched.
ヘッドマウントディスプレイ型であって、
操作者の眼球を撮影し、操作者の視線を追尾する撮像装置と、
前記撮像装置で撮影される操作者の視線位置を表示する表示装置と、
タッチパネルと、を備え
前記撮像装置が前記主操作手段、前記タッチパネルが前記副操作手段として機能することを特徴とする請求項1に記載のポインティングデバイス。
It is a head mounted display type,
An imaging device that captures the operator's eye and tracks the operator's line of sight;
A display device for displaying the line-of-sight position of the operator imaged by the imaging device;
The pointing device according to claim 1, further comprising: a touch panel, wherein the imaging apparatus functions as the main operation unit, and the touch panel functions as the sub operation unit.
請求項1から6までのいずれかに記載のポインティングデバイスと、
前記ポインティングデバイスから信号が入力され、前記ポインティングデバイスが前記主操作手段として機能している場合と、前記副操作手段として機能している場合と、を判別して、判別結果に応じた処理を実行する情報処理手段と、を備えることを特徴とする情報処理装置。
A pointing device according to any one of claims 1 to 6;
When a signal is input from the pointing device, the case where the pointing device functions as the main operation unit and the case where the pointing device functions as the sub operation unit are determined, and processing according to the determination result is executed. And an information processing means.
請求項1から6までのいずれかに記載のポインティングデバイスと、
前記ポインティングデバイスから信号が入力され、前記ポインティングデバイスが前記主操作手段として機能している場合と、前記副操作手段として機能している場合と、を判別して、判別結果に応じた処理を実行する情報処理装置と、を備えることを特徴とする情報処理システム。
A pointing device according to any one of claims 1 to 6;
When a signal is input from the pointing device, the case where the pointing device functions as the main operation unit and the case where the pointing device functions as the sub operation unit are determined, and processing according to the determination result is executed. And an information processing apparatus.
少なくとも座標位置を指定する操作を実行する主操作手段と、
前記主操作手段で指定された前記座標位置に基づいて所定の操作を実行する副操作手段と、を備えたポインティングデバイスに、
前記主操作手段により、オブジェクトの選択操作を実行させ、
前記副操作手段により、前記主操作手段で選択された前記オブジェクトを含む所定範囲を指定する操作を実行させ、
前記主操作手段により、前記副操作手段で選択された前記所定範囲について、所定の処理を実行するための操作を実行させることを特徴とするポインティングデバイスの制御方法。
A main operation means for performing at least an operation of designating a coordinate position;
A pointing device comprising: sub-operating means for executing a predetermined operation based on the coordinate position designated by the main operating means;
The main operation means performs an object selection operation,
Causing the sub-operation means to execute an operation for designating a predetermined range including the object selected by the main operation means;
A pointing device control method, comprising: causing the main operation means to execute an operation for executing a predetermined process for the predetermined range selected by the sub operation means.
JP2014015808A 2014-01-30 2014-01-30 pointing device Active JP6364790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014015808A JP6364790B2 (en) 2014-01-30 2014-01-30 pointing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014015808A JP6364790B2 (en) 2014-01-30 2014-01-30 pointing device

Publications (2)

Publication Number Publication Date
JP2015141686A true JP2015141686A (en) 2015-08-03
JP6364790B2 JP6364790B2 (en) 2018-08-01

Family

ID=53771962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014015808A Active JP6364790B2 (en) 2014-01-30 2014-01-30 pointing device

Country Status (1)

Country Link
JP (1) JP6364790B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5980404B1 (en) * 2015-11-26 2016-08-31 株式会社コロプラ Method of instructing operation to object in virtual space, and program
WO2017090298A1 (en) * 2015-11-26 2017-06-01 株式会社コロプラ Method for issuing action commands to objects within virtual space, and program
JP6209252B1 (en) * 2016-07-11 2017-10-04 株式会社コロプラ Method for operating character in virtual space, program for causing computer to execute the method, and computer apparatus
KR20190028464A (en) 2016-08-08 2019-03-18 아사히 가세이 가부시키가이샤 Membrane module for gas separation
US10890982B2 (en) 2018-12-18 2021-01-12 Samsung Electronics Co., Ltd. System and method for multipurpose input device for two-dimensional and three-dimensional environments

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830380A (en) * 1994-05-10 1996-02-02 Minolta Co Ltd Display device
JPH1165759A (en) * 1997-08-21 1999-03-09 Sharp Corp Information input device
JPH11345082A (en) * 1998-04-01 1999-12-14 Fujitsu Takamisawa Component Ltd Mouse
JP2001067182A (en) * 1999-08-24 2001-03-16 Sony Corp Mouse input device
JP2002082770A (en) * 2000-09-07 2002-03-22 Alps Electric Co Ltd Multifunctional mouse
JP2003177871A (en) * 2001-12-12 2003-06-27 Nego:Kk Input device capable of executing multiple input operation with single button
JP2004233909A (en) * 2003-01-31 2004-08-19 Nikon Corp Head-mounted display
JP2005243021A (en) * 2004-02-26 2005-09-08 Microsoft Corp Multimode navigation in graphical user interface computing system
JP2006155313A (en) * 2004-11-30 2006-06-15 Hitachi Ltd Method for switching functions of cursor, and information processor using the same
JP2007310599A (en) * 2006-05-17 2007-11-29 Nikon Corp Video display device
JP3151999U (en) * 2009-02-19 2009-07-16 有限会社インターネットアンドアーツ Mouse input device
JP2011014082A (en) * 2009-07-06 2011-01-20 Toshiba Tec Corp Wearable terminal device and program
JP2011141584A (en) * 2010-01-05 2011-07-21 Nikon Corp Input control equipment
JP2012008290A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp Spectacle type display device and server
JP2012508427A (en) * 2008-11-12 2012-04-05 アップル インコーポレイテッド Occurrence of gestures tailored to the hand placed on the surface
WO2012049899A1 (en) * 2010-10-15 2012-04-19 株式会社図研 Input information processing device, input information processing method, program and computer-readable recording medium
WO2013001479A1 (en) * 2011-06-29 2013-01-03 Koninklijke Philips Electronics N.V. Zooming of medical images
JP2013089175A (en) * 2011-10-21 2013-05-13 Furuno Electric Co Ltd Image display device, image display program, and image display method
JP2013258573A (en) * 2012-06-13 2013-12-26 Sony Corp Head-mounted video display device

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830380A (en) * 1994-05-10 1996-02-02 Minolta Co Ltd Display device
JPH1165759A (en) * 1997-08-21 1999-03-09 Sharp Corp Information input device
JPH11345082A (en) * 1998-04-01 1999-12-14 Fujitsu Takamisawa Component Ltd Mouse
JP2001067182A (en) * 1999-08-24 2001-03-16 Sony Corp Mouse input device
JP2002082770A (en) * 2000-09-07 2002-03-22 Alps Electric Co Ltd Multifunctional mouse
JP2003177871A (en) * 2001-12-12 2003-06-27 Nego:Kk Input device capable of executing multiple input operation with single button
JP2004233909A (en) * 2003-01-31 2004-08-19 Nikon Corp Head-mounted display
JP2005243021A (en) * 2004-02-26 2005-09-08 Microsoft Corp Multimode navigation in graphical user interface computing system
JP2006155313A (en) * 2004-11-30 2006-06-15 Hitachi Ltd Method for switching functions of cursor, and information processor using the same
JP2007310599A (en) * 2006-05-17 2007-11-29 Nikon Corp Video display device
JP2012508427A (en) * 2008-11-12 2012-04-05 アップル インコーポレイテッド Occurrence of gestures tailored to the hand placed on the surface
JP3151999U (en) * 2009-02-19 2009-07-16 有限会社インターネットアンドアーツ Mouse input device
JP2011014082A (en) * 2009-07-06 2011-01-20 Toshiba Tec Corp Wearable terminal device and program
JP2011141584A (en) * 2010-01-05 2011-07-21 Nikon Corp Input control equipment
JP2012008290A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp Spectacle type display device and server
WO2012049899A1 (en) * 2010-10-15 2012-04-19 株式会社図研 Input information processing device, input information processing method, program and computer-readable recording medium
WO2013001479A1 (en) * 2011-06-29 2013-01-03 Koninklijke Philips Electronics N.V. Zooming of medical images
JP2013089175A (en) * 2011-10-21 2013-05-13 Furuno Electric Co Ltd Image display device, image display program, and image display method
JP2013258573A (en) * 2012-06-13 2013-12-26 Sony Corp Head-mounted video display device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5980404B1 (en) * 2015-11-26 2016-08-31 株式会社コロプラ Method of instructing operation to object in virtual space, and program
WO2017090298A1 (en) * 2015-11-26 2017-06-01 株式会社コロプラ Method for issuing action commands to objects within virtual space, and program
US9952679B2 (en) 2015-11-26 2018-04-24 Colopl, Inc. Method of giving a movement instruction to an object in a virtual space, and program therefor
CN108292168A (en) * 2015-11-26 2018-07-17 日商可乐普拉股份有限公司 For the action indicating means and program of object in Virtual Space
CN108292168B (en) * 2015-11-26 2021-04-06 日商可乐普拉股份有限公司 Method and medium for indicating motion of object in virtual space
JP6209252B1 (en) * 2016-07-11 2017-10-04 株式会社コロプラ Method for operating character in virtual space, program for causing computer to execute the method, and computer apparatus
JP2018010348A (en) * 2016-07-11 2018-01-18 株式会社コロプラ Method of operating characters in virtual space, program for having computer implement the same, and computer device
KR20190028464A (en) 2016-08-08 2019-03-18 아사히 가세이 가부시키가이샤 Membrane module for gas separation
US10890982B2 (en) 2018-12-18 2021-01-12 Samsung Electronics Co., Ltd. System and method for multipurpose input device for two-dimensional and three-dimensional environments

Also Published As

Publication number Publication date
JP6364790B2 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
JP5552772B2 (en) Information processing apparatus, information processing method, and computer program
EP2972669B1 (en) Depth-based user interface gesture control
EP2908215B1 (en) Method and apparatus for gesture detection and display control
US9448714B2 (en) Touch and non touch based interaction of a user with a device
EP2677398A2 (en) Virtual touch device without pointer on display surface
JP6364790B2 (en) pointing device
JP2016511487A (en) Improved touch input with gestures
WO2010032268A2 (en) System and method for controlling graphical objects
JP2014219938A (en) Input assistance device, input assistance method, and program
US20150193000A1 (en) Image-based interactive device and implementing method thereof
JP6194355B2 (en) Improved devices for use with computers
KR20130137069A (en) Method of simulating the touch screen operation by means of a mouse
KR20160019762A (en) Method for controlling touch screen with one hand
KR101233793B1 (en) Virtual mouse driving method using hand motion recognition
JPWO2012111227A1 (en) Touch-type input device, electronic apparatus, and input method
US20140015750A1 (en) Multimode pointing device
KR102145824B1 (en) Inferface method of smart touch pad and device therefor
KR101588021B1 (en) An input device using head movement
CN210466360U (en) Page control device
JP2014241078A (en) Information processing apparatus
US9940900B2 (en) Peripheral electronic device and method for using same
JP2009205609A (en) Pointing device
KR101381366B1 (en) Apparatus for gesture recognition remote controller and operating method for the same
WO2012114791A1 (en) Gesture operation system
KR20170124593A (en) Intelligent interaction methods, equipment and systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R151 Written notification of patent or utility model registration

Ref document number: 6364790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151