JP2009265897A - Hand-held information processor, controller, control system and control method - Google Patents

Hand-held information processor, controller, control system and control method Download PDF

Info

Publication number
JP2009265897A
JP2009265897A JP2008114088A JP2008114088A JP2009265897A JP 2009265897 A JP2009265897 A JP 2009265897A JP 2008114088 A JP2008114088 A JP 2008114088A JP 2008114088 A JP2008114088 A JP 2008114088A JP 2009265897 A JP2009265897 A JP 2009265897A
Authority
JP
Japan
Prior art keywords
main body
movement
operated
screen
operation mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008114088A
Other languages
Japanese (ja)
Inventor
Kazuyuki Yamamoto
一幸 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008114088A priority Critical patent/JP2009265897A/en
Publication of JP2009265897A publication Critical patent/JP2009265897A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve convenience in operation by a hand-held remote pointing device having a numeric character and character input function. <P>SOLUTION: This device can be folded. An MPU (Micro Processing Unit) 19 decides whether or not an open state of a main body (numeric character and character input is enabled) is detected by a changeover detector 26. When the open state of the main body is detected, the MPU 19 stops transmission of a movement command output by a sensor unit 17, so that movement of a pointer on a screen is stopped. Thus, the transmission of the movement command is stopped when the main body is opened, so that a complicated operation for character input is eliminated, and operability is improved. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報を処理するハンドヘルド型の情報処理装置に関する。また、本発明は、このハンドヘルド型情報処理装置が、空間操作型の入力装置である場合、その入力装置から送信された情報を受信して、GUI(Graphical User Interface)の操作を制御するための制御装置、その制御システム及び制御方法に関する。   The present invention relates to a handheld information processing apparatus that processes information. Further, the present invention provides a method for controlling a GUI (Graphical User Interface) operation by receiving information transmitted from an input device when the handheld information processing device is a spatial operation type input device. The present invention relates to a control device, its control system, and control method.

PC(Personal Computer)で普及しているGUIのコントローラとして、主にマウスやタッチパッド等のポインティングデバイスが用いられている。GUIは、従来のPCのHI(Human Interface)にとどまらず、例えばテレビを画像媒体としてリビングルーム等で使用されるAV機器やゲーム機のインターフェースとして使用され始めている。このようなGUIのコントローラとして、ユーザが空間で操作することができるポインティングデバイスが多種提案されている(例えば、特許文献1参照)。   Pointing devices such as a mouse and a touch pad are mainly used as a GUI controller that is widely used in PCs (Personal Computers). The GUI is not limited to the conventional HI (Human Interface) of a PC, but has begun to be used as an interface for AV equipment and game machines used in a living room or the like, for example, using a television as an image medium. As such a GUI controller, various pointing devices that can be operated by a user in space have been proposed (see, for example, Patent Document 1).

ところで、ユーザが、PC本体と通信するポインティングデバイスを使用しながら、キーボードを用いて、文字入力やその他の操作をすることが想定される。このような場合、例えばPCは、ソフトウェアによるキーボード、つまりGUIによるキーボードを画面に表示させ、ユーザに文字を選択させる、といった方法がある。しかし、ユーザが、ポインティングデバイスを用いて画面上で文字を選択することは、ユーザにとって操作が煩雑に感じられる。また、ユーザが、キーボードを用いる代わりに、ポインティングデバイスを用いていわゆる手書き入力することも考えられるが、これも操作が煩雑である。   By the way, it is assumed that the user performs character input and other operations using a keyboard while using a pointing device that communicates with the PC main body. In such a case, for example, there is a method in which the PC displays a keyboard by software, that is, a keyboard by GUI, on the screen and allows the user to select a character. However, when the user selects a character on the screen using the pointing device, the operation feels complicated for the user. In addition, it is conceivable that the user performs so-called handwriting input using a pointing device instead of using a keyboard, but this is also complicated.

上記問題を解決するために、例えばフランスのトムソン社から、数字及び文字入力機能を持つリモートコントローラが製品化されている(Gyration Media Center Remotes)。   In order to solve the above problem, for example, a remote controller having a numeric and character input function has been commercialized by Thomson, France (Gyration Media Center Remotes).

特開2001−56743号公報JP 2001-56743 A

しかしながら、上記トムソン社の製品では、ユーザが文字を入力するときのボタンを押す力によって、リモートコントローラが動き、その動きに伴って、画面上のポインタも動いてしまう。これを防止するために、押されているときのみポインタが動くようにするためのボタンがそのリモートコントローラに設けられ、そのボタンをユーザが押したままの状態にすることで、そのリモートコントローラを操作してポインタを動かすことができる。しかし、ユーザがボタンを押しながらリモートコントローラを動してポインタを動かすといった操作は、ユーザにとって煩雑に感じられる。   However, in the above-mentioned Thomson product, the remote controller moves by the force of the user pressing a button when inputting characters, and the pointer on the screen also moves along with the movement. To prevent this, a button is provided on the remote controller to move the pointer only when it is pressed, and the remote controller can be operated by keeping the button pressed by the user. And move the pointer. However, an operation in which the user moves the pointer by pressing the button and moving the pointer can be complicated for the user.

以上のような事情に鑑み、本発明の目的は、ユーザが、所定の操作形態でハンドヘルド型情報処理装置を操作するときの操作性を向上させることができる、ハンドヘルド型情報処理装置、制御装置、制御システム及び制御方法を提供することにある。   In view of the circumstances as described above, an object of the present invention is to improve the operability when the user operates the handheld information processing device in a predetermined operation form, the handheld information processing device, the control device, A control system and a control method are provided.

上記目的を達成するため、本発明の一形態に係るハンドヘルド型情報処理装置は、本体と、出力手段と、検出手段と、制御手段とを具備する。   In order to achieve the above object, a handheld information processing apparatus according to an embodiment of the present invention includes a main body, an output unit, a detection unit, and a control unit.

前記本体は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される。前記出力手段は、前記本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する。前記検出手段は、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する。前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する。   The main body is operated by the user in a first operation mode and a second operation mode different from the first operation mode. The output means outputs a movement command for moving a UI displayed on the screen according to the movement of the main body. The detection means detects switching between the first operation mode and the second operation mode of the main body. When the main body is operated in the first operation mode, the control unit causes the output unit to output the movement command to move the UI on the screen, and the second operation mode. When the main body is operated, the decorrelation processing is executed to make the UI state on the screen uncorrelated with the movement of the main body.

すなわち、第1及び第2の操作形態の切り替えの検出に応じて、UIを移動させるための移動コマンドが出力されるか、非相関処理が実行されるかが自動的に切り替えられる。したがって、ユーザにより本体の操作形態が変えられるときに、ユーザが、その操作性に不便さ、あるいは煩雑さを感じることはない。
操作形態の切り替えとは、ユーザが意図してその本体への入力操作の仕方を切り替えることである。
That is, in response to the detection of switching between the first and second operation modes, whether a movement command for moving the UI is output or whether a decorrelation process is executed is automatically switched. Therefore, when the user changes the operation mode of the main body, the user does not feel inconvenience or complexity of the operability.
The switching of the operation mode means that the user intentionally switches the input operation method to the main body.

前記本体は、前記ユーザにより操作される操作キーと、前記操作キーを収納する収納機構とを有していてもよい。前記検出手段は、前記操作キーが前記収納機構により収納される形態を前記第1の操作形態として、前記操作キーが前記収納機構により収納されずに露出する形態を前記第2の操作形態として、前記切り替えを検出してもよい。   The main body may include an operation key operated by the user and a storage mechanism that stores the operation key. In the detection means, a mode in which the operation key is stored by the storage mechanism is defined as the first operation mode, and a mode in which the operation key is exposed without being stored by the storage mechanism is defined as the second operation mode. The switching may be detected.

ポインティング操作時には収納機構により収納されていた操作キーが、第2の操作形態での操作時に露出し、この第2の操作形態では非相関処理が実行される。これにより、操作キーによる操作時には、本体の動きに応じたUIの動きが起こらないので、ユーザの操作感が向上する。また、ポインティング操作時に、操作キーが露出している場合は、操作キーの誤操作、例えばユーザが意図しないで操作キーを押してしまうことがあり得るが、本発明の形態では、そのことを防止することができる。   The operation keys stored by the storage mechanism during the pointing operation are exposed during the operation in the second operation mode, and the decorrelation process is executed in the second operation mode. Thereby, when the operation is performed with the operation key, the UI does not move according to the movement of the main body, so that the user's operational feeling is improved. In addition, if the operation key is exposed during the pointing operation, an erroneous operation of the operation key, for example, the operation key may be unintentionally pressed by the user, but this is prevented in the embodiment of the present invention. Can do.

前記本体は、スイッチを有し、前記制御手段は、前記第2の操作形態で前記本体が操作され前記非相関処理を実行している途中に、前記ユーザにより前記スイッチによる入力操作があった場合、前記非相関処理を停止し、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させてもよい。   The main body has a switch, and the control means has an input operation by the switch by the user while the main body is operated in the second operation mode and the decorrelation process is being executed. The movement command may be output by the output means in order to stop the decorrelation processing and move the UI on the screen.

ユーザがスイッチを操作することで、前記第2の操作形態で操作キーが露出している場合であっても、ユーザはUIを移動させることが可能となる。   When the user operates the switch, the user can move the UI even when the operation key is exposed in the second operation mode.

前記本体は、第1のボディと、第2のボディと、前記第1のボディ及び前記第2のボディが相対的に動くように、前記第1のボディ及び前記第2のボディを接続する接続機構とを有していてもよい。前記検出手段は、前記第1のボディ及び前記第2のボディが第1の相対位置にある状態を前記第1の操作形態として、前記第1のボディ及び前記第2のボディが第1の相対位置とは異なる第2の相対位置にある状態を前記第2の操作形態として、前記切り替えを検出してもよい。   The main body is connected to connect the first body and the second body so that the first body, the second body, and the first body and the second body move relative to each other. And a mechanism. The detection means uses the state in which the first body and the second body are in a first relative position as the first operation mode, and the first body and the second body are in a first relative position. The switching may be detected with the second operation form being in a second relative position different from the position.

前記本体は、タッチパネル画面を表示可能なタッチパネル型のディスプレイを有していてもよい。前記検出手段は、前記タッチパネル画面を介してユーザがタッチ操作が可能な形態を前記第2の操作形態とし、前記タッチ操作が解除された形態を前記第1の操作形態として、前記切り替えを検出してもよい。すなわち、タッチ操作が可能か否かに応じて、UIの移動のための処理と非相関処理とが切り替えられる。   The main body may have a touch panel type display capable of displaying a touch panel screen. The detection means detects the switching, with a form in which a user can perform a touch operation via the touch panel screen as the second operation form and a form in which the touch operation is released as the first operation form. May be. That is, the process for moving the UI and the decorrelation process are switched depending on whether or not a touch operation is possible.

前記本体は、前記ユーザにより、前記第1の操作形態では第1の姿勢で操作され、前記第2の操作形態では前記第1の姿勢とは異なる第2の姿勢で操作されてもよい。すなわち、第1の操作形態と第2の操作形態では、ユーザによる本体の持ち方が異なる。   The main body may be operated by the user in a first posture in the first operation mode, and may be operated in a second posture different from the first posture in the second operation mode. That is, the user's way of holding the main body is different between the first operation mode and the second operation mode.

前記出力手段は、前記本体の加速度を検出する加速度センサを有していてもよい。前記検出手段は、前記加速度センサにより検出された重力加速度の変化に応じて前記切り替えを検出してもよい。   The output means may include an acceleration sensor that detects acceleration of the main body. The detection means may detect the switching according to a change in gravitational acceleration detected by the acceleration sensor.

前記出力手段は、第1の検出軸及び第2の検出軸を有するセンサを有し、前記センサにより第1の方向及び前記第1の方向とは異なる第2の方向の両方の前記本体の動きを検出させる。また、前記出力手段は、前記第1の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第1の方向での前記本体の動きに応じた第1の移動コマンド、及び、前記第2の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第2の方向での前記本体の動きに応じた第2の移動コマンドを、前記移動コマンドとして出力してもよい。   The output means includes a sensor having a first detection axis and a second detection axis, and the movement of the main body in both the first direction and the second direction different from the first direction by the sensor. Is detected. The output means is configured to move the UI along an axis on the screen corresponding to the first direction, and a first movement according to the movement of the main body in the first direction. A command and a second movement command according to the movement of the main body in the second direction for moving the UI along an axis on the screen corresponding to the second direction; The movement command may be output.

前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させる。jまた、前記制御手段は、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1の方向の前記本体の動きを前記第2の検出軸で検出させ、前記第2の検出軸で検出された前記本体の動きに応じた前記第1の移動コマンドを前記出力手段により出力させてもよい。   When the main body is operated in the first operation mode, the control means causes the first and second detection axes to detect the movement of the main body in the first and second directions, respectively. j The control means causes the output means to output the first and second movement commands corresponding to the detected movement of the main body, and the main body operates in the second operation mode. In this case, the movement of the main body in the first direction is detected by the second detection axis, and the first movement command corresponding to the movement of the main body detected by the second detection axis is You may make it output by an output means.

例えば、第1の操作形態から第2の操作形態への切り替えが検出され、その本体の姿勢が変わる場合、その姿勢変化に応じて第2の検出軸が、第1の方向に対応するように設定される。このように、第1及び第2の操作形態の切り替えに応じて自動的に検出軸が変わるので、いずれの操作形態であってもポインティング操作が可能となる。この場合、制御手段は、第2の操作形態で本体が操作される場合、第2の方向の本体の動きを第1の検出軸で検出させ、第1の検出軸で検出された本体の動きに応じた第2の移動コマンドを出力手段により出力させてもよい。   For example, when switching from the first operation mode to the second operation mode is detected and the posture of the main body changes, the second detection axis corresponds to the first direction according to the posture change. Is set. As described above, since the detection axis automatically changes in accordance with the switching between the first and second operation modes, the pointing operation can be performed in any operation mode. In this case, when the main body is operated in the second operation mode, the control means detects the movement of the main body in the second direction with the first detection axis, and the movement of the main body detected with the first detection axis. A second movement command corresponding to the above may be output by the output means.

あるいは、次のように、第1及び第2の検出軸の両方向とは異なる第3の検出軸を含むセンサが用いられてもよい。前記センサは、第3の検出軸を有する。前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第2及び前記第3の検出軸で検出させ、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させてもよい。   Alternatively, a sensor including a third detection axis different from both directions of the first and second detection axes may be used as follows. The sensor has a third detection axis. When the main body is operated in the first operation mode, the control means causes the output means to output the first and second movement commands corresponding to the detected movement of the main body, and When the main body is operated in the second operation mode, the movement of the main body in the first and second directions is detected by the second and third detection axes, and the detected The first and second movement commands corresponding to the movement of the main body may be output by the output means.

前記本体は、第1のボディと、第2のボディと、前記第1のボディ及び前記第2のボディが相対的に動くように、前記第1のボディ及び前記第2のボディを接続する接続機構とを有していてもよい。すなわち、少なくとも2つのボディを有する本体に上記各発明を適用することができる。   The main body is connected to connect the first body and the second body so that the first body, the second body, and the first body and the second body move relative to each other. And a mechanism. That is, the above inventions can be applied to a main body having at least two bodies.

前記接続機構は、前記第1のボディに対して前記第2のボディを開閉するための、前記第1の検出軸に沿うヒンジ軸を有していてもよい。   The connection mechanism may have a hinge shaft along the first detection shaft for opening and closing the second body with respect to the first body.

前記接続機構は、前記第1のボディに対して前記第2のボディを、前記第1の検出軸に沿う方向にスライドさせるスライド機構を有してていもよい。   The connection mechanism may include a slide mechanism that slides the second body in a direction along the first detection axis with respect to the first body.

前記接続機構は、前記第2の検出軸に沿う方向の回転軸を有した、前記第1のボディに対して前記第2のボディを前記回転軸で回転させる回転機構を有していてもよい。   The connection mechanism may include a rotation mechanism that has a rotation axis in a direction along the second detection axis and rotates the second body with the rotation axis with respect to the first body. .

本発明の他の形態に係るハンドヘルド型情報処理装置は、本体と、出力手段と、検出手段と、制御手段とを具備する。   A handheld information processing apparatus according to another aspect of the present invention includes a main body, an output unit, a detection unit, and a control unit.

前記本体は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される。前記出力手段は、第1の検出軸及び前記第2の検出軸を有するセンサを含み、前記センサにより第1の方向及び前記第1の方向とは異なる第2の方向の両方の前記本体の動きを検出させ、前記第1の方向に対応する画面上での軸に沿ってUIを移動させるための、前記第1の方向での前記本体の動きに応じた第1の移動コマンド、及び、前記第2の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第2の方向での前記本体の動きに応じた第2の移動コマンドを出力する。前記検出手段は、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する。前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させ、前記第1及び前記第2の検出軸でそれぞれ検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1の方向の前記本体の動きを前記第2の検出軸で検出させて、前記第2の検出軸で検出された前記本体の動きに応じた前記第1の移動コマンドを前記出力手段により出力させる。   The main body is operated by the user in a first operation mode and a second operation mode different from the first operation mode. The output means includes a sensor having a first detection axis and a second detection axis, and movement of the main body in both the first direction and a second direction different from the first direction by the sensor. And a first movement command according to the movement of the main body in the first direction for moving the UI along an axis on the screen corresponding to the first direction, and A second movement command corresponding to the movement of the main body in the second direction is output to move the UI along an axis on the screen corresponding to the second direction. The detection means detects switching between the first operation mode and the second operation mode of the main body. When the main body is operated in the first operation mode, the control means detects the movement of the main body in the first and second directions with the first and second detection axes, respectively. The first and second movement commands corresponding to the movements of the main body detected by the first and second detection axes, respectively, are output by the output means, and in the second operation mode, the When the main body is operated, the movement of the main body in the first direction is detected by the second detection axis, and the first movement according to the movement of the main body detected by the second detection axis is detected. A movement command is output by the output means.

本発明の一形態に係る制御装置は、ハンドヘルド型情報処理装置から出力された、移動コマンド及び形態情報に基づき、画面上に表示されるUIの動きを制御する制御装置であって、受信手段と、判定手段と、生成手段と、実行手段とを具備する。   A control device according to an aspect of the present invention is a control device that controls movement of a UI displayed on a screen based on a movement command and shape information output from a handheld information processing device, , Determination means, generation means, and execution means.

前記ハンドヘルド型情報処理装置は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、前記本体の動きに応じた前記移動コマンドを出力する出力手段と、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である前記形態情報を出力する形態情報出力手段とを備える。   The handheld information processing apparatus outputs a main body operated by a user in a first operation form and a second operation form different from the first operation form, and the movement command corresponding to the movement of the main body. Switching between the output means and the first operation mode and the second operation mode of the main body is detected, and the main body is operated in any one of the first operation mode and the second operation mode. Morphological information output means for outputting the morphological information, which is information on whether or not.

受信手段は、前記移動コマンド及び前記形態情報を受信する。前記判定手段は、前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定する。前記生成手段は、前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成する。前記実行手段は、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する。   The receiving means receives the movement command and the form information. The determination unit determines whether the main body is operated in one of the first operation form and the second operation form based on the form information. The generating means is configured to coordinate the UI on the screen based on the received movement command to move the UI on the screen when the main body is operated in the first operation mode. Generate information. When the main body is operated in the second operation mode, the execution means executes a decorrelation process for making the state of the UI on the screen uncorrelated with the movement of the main body. .

「〜であって、」という前提部分は、本発明の内容を明確化するために記載されたものであり、本発明者及び本出願人が当該前提部分について公知の技術を意識しているわけではない。   The premise part of “to be” is described in order to clarify the contents of the present invention, and the present inventor and the present applicant are conscious of known techniques for the premise part. is not.

本発明の一形態に係る制御システムは、本体と、出力手段と、検出手段と、制御手段とを有するハンドヘルド型情報処理装置と、受信手段と、生成手段とを有する制御装置とを具備する。   A control system according to an aspect of the present invention includes a control unit having a main body, an output unit, a detection unit, a handheld information processing apparatus having a control unit, a reception unit, and a generation unit.

前記本体は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される。前記出力手段は、前記本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する。前記検出手段は、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する。前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する。前記受信手段は、前記移動コマンドを受信する。前記生成手段は、前記受信された移動コマンドに基づき、前記画面上で前記UIを移動させるために、前記画面上での前記UIの座標情報を生成する。   The main body is operated by the user in a first operation mode and a second operation mode different from the first operation mode. The output means outputs a movement command for moving a UI displayed on the screen according to the movement of the main body. The detection means detects switching between the first operation mode and the second operation mode of the main body. When the main body is operated in the first operation mode, the control unit causes the output unit to output the movement command to move the UI on the screen, and the second operation mode. When the main body is operated, the decorrelation processing is executed to make the UI state on the screen uncorrelated with the movement of the main body. The receiving means receives the movement command. The generation unit generates coordinate information of the UI on the screen in order to move the UI on the screen based on the received movement command.

本発明の他の形態に係る制御システムは、本体と、出力手段と、形態情報出力手段とを有するハンドヘルド型情報処理装置と、受信手段と、判定手段と、生成手段と、実行手段とを有する制御装置とを具備する。   A control system according to another aspect of the present invention includes a handheld information processing apparatus including a main body, an output unit, and a configuration information output unit, a reception unit, a determination unit, a generation unit, and an execution unit. And a control device.

前記本体は、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される。前記出力手段は、前記本体の動きに応じた移動コマンドを出力する。前記形態情報出力手段は、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である形態情報を出力する。前記受信手段は、前記移動コマンド及び前記形態情報を受信する。前記判定手段は、前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定する。前記生成手段は、前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成する。前記実行手段は、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する。   The main body is operated by the user in a first operation mode and a second operation mode different from the first operation mode. The output means outputs a movement command corresponding to the movement of the main body. The form information output means detects the switching of the first operation form and the second operation form of the main body, and the main body is in any form of the first operation form and the second operation form. Outputs morphological information that is information on whether or not to operate. The receiving means receives the movement command and the form information. The determination unit determines whether the main body is operated in one of the first operation form and the second operation form based on the form information. The generating means is configured to coordinate the UI on the screen based on the received movement command to move the UI on the screen when the main body is operated in the first operation mode. Generate information. When the main body is operated in the second operation mode, the execution means executes a decorrelation process for making the state of the UI on the screen uncorrelated with the movement of the main body. .

本発明の一形態に係る制御方法は、ハンドヘルド型情報処理装置により、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する。ハンドヘルド型情報処理装置により、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えが検出される。前記第1の操作形態で前記本体が操作される場合、ハンドヘルド型情報処理装置により、前記画面上で前記UIを移動させるために前記移動コマンドが出力される。前記第2の操作形態で前記本体が操作される場合、ハンドヘルド型情報処理装置により、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理が実行される。   A control method according to an aspect of the present invention is based on a movement of a main body operated by a user in a first operation form and a second operation form different from the first operation form by a handheld information processing apparatus. The movement command for moving the UI displayed on the screen is output. The handheld information processing apparatus detects the switching between the first operation mode and the second operation mode of the main body. When the main body is operated in the first operation mode, the movement command is output by the handheld information processing apparatus to move the UI on the screen. When the main body is operated in the second operation mode, a non-correlation process for changing the state of the UI on the screen to a state uncorrelated with the movement of the main body is performed by a handheld information processing device. Executed.

本発明の他の形態に係る制御方法は、ハンドヘルド型情報処理装置から出力された、移動コマンド及び形態情報に基づき、画面上に表示されるUIの動きを制御する制御装置の制御方法であって、前記移動コマンド及び前記形態情報を受信する。前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかが判定される。前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報が生成される。前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理が実行される。
「〜であって、」という前提部分は、本発明の内容を明確化するために記載されたものであり、本発明者及び本出願人が当該前提部分について公知の技術を意識しているわけではない。
A control method according to another aspect of the present invention is a control method for a control device that controls movement of a UI displayed on a screen based on a movement command and shape information output from a handheld information processing device. The movement command and the form information are received. Based on the form information, it is determined which of the first operation form and the second operation form the body is operated in. When the main body is operated in the first operation mode, coordinate information of the UI on the screen is generated based on the received movement command to move the UI on the screen. . When the main body is operated in the second operation mode, a decorrelation process is performed to make the UI state on the screen uncorrelated with the movement of the main body.
The premise part of “to be” is described in order to clarify the contents of the present invention, and the present inventor and the present applicant are conscious of known techniques for the premise part. is not.

以上の説明において、「〜手段」と記載された要素は、ハードウェアで実現されてもよいし、ソフトウェア及びハードウェアの両方で実現されてもよい。ソフトウェア及びハードウェアの両方で実現される場合、そのハードウェアは、ソフトウェアのプログラムを格納する記憶デバイスを少なくとも含む。ハードウェアは、典型的には、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、NIC(Network Interface Card)、WNIC(Wireless NIC)、モデム、光ディスク、磁気ディスク、及び、フラッシュメモリのうち少なくとも1つが選択的に用いられることにより構成される。   In the above description, the elements described as “to means” may be realized by hardware, or may be realized by both software and hardware. When implemented in both software and hardware, the hardware includes at least a storage device that stores software programs. Typically, the hardware is a CPU (Central Processing Unit), MPU (Micro Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array). ), ASIC (Application Specific Integrated Circuit), NIC (Network Interface Card), WNIC (Wireless NIC), modem, optical disk, magnetic disk, and flash memory are selectively used.

以上のように、本発明によれば、ユーザが、ボタンまたはその他の機構を用いた所定の操作形態でハンドヘルド型情報処理装置を操作するときの操作性を向上させることができる。   As described above, according to the present invention, it is possible to improve the operability when the user operates the handheld information processing apparatus in a predetermined operation form using buttons or other mechanisms.

以下、本発明の実施の形態を図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施の形態に係る制御システムを示す図である。制御システム100は、表示装置5、制御装置40及びハンドヘルド型情報処理装置1を含む。ハンドへルド型情報処理装置を、以下、単に入力デバイスという。   FIG. 1 is a diagram showing a control system according to an embodiment of the present invention. The control system 100 includes a display device 5, a control device 40, and a handheld information processing device 1. Hereinafter, the handheld information processing apparatus is simply referred to as an input device.

図2(A)は、入力デバイス1を示す平面図であり、図2(B)は、その側面図である。この入力デバイス1は、例えば折りたたみ式のデバイスであり、図3は、入力デバイス1が開いた状態を示す平面図である。   FIG. 2A is a plan view showing the input device 1, and FIG. 2B is a side view thereof. The input device 1 is, for example, a foldable device, and FIG. 3 is a plan view showing a state in which the input device 1 is opened.

入力デバイス1は、ユーザが持つことができる程度の大きさとされている。入力デバイス1は、本体10と、本体10の外面に設けられた操作部14とを備えている。操作部14は、例えば決定ボタン11、決定ボタン11に隣接するボタン12、ホイールボタン13、また後述する複数の操作キーを有する。決定ボタン11は、例えばPCで用いられる入力デバイスとしてのマウスの左ボタンの機能を有し、ボタン11に隣接するボタン12は右ボタンの機能を有していてもよい。また、ホイールボタン13は、主に、マウスのホイールボタンの機能を有するボタンとして用いられる。   The input device 1 is large enough to be held by the user. The input device 1 includes a main body 10 and an operation unit 14 provided on the outer surface of the main body 10. The operation unit 14 includes, for example, a determination button 11, a button 12 adjacent to the determination button 11, a wheel button 13, and a plurality of operation keys described later. The decision button 11 may have a function of a left button of a mouse as an input device used in a PC, for example, and the button 12 adjacent to the button 11 may have a function of a right button. The wheel button 13 is mainly used as a button having a function of a mouse wheel button.

例えば、ボタン11を長押して入力デバイス1を移動させることにより「ドラッグアンドドロップ」、ボタン11のダブルクリックによりファイルを開く操作、ホイールボタン13により画面3のスクロール操作が行われるようにしてもよい。ボタン11、12、ホイールボタン13の配置、発行されるコマンドの内容等は、適宜変更可能である。   For example, “drag and drop” may be performed by moving the input device 1 by long-pressing the button 11, opening a file by double clicking the button 11, and scrolling the screen 3 by the wheel button 13. The arrangement of the buttons 11 and 12 and the wheel button 13 and the contents of the issued command can be changed as appropriate.

入力デバイス1は、第1のボディ31、第2のボディ32、ボディ31及び32を開閉させるためのヒンジ軸を持つヒンジ部33を備える。図3に示すように、第1のボディ31及び第2のボディ32のそれぞれの内面には、複数の操作キー34が配置され、本体10が開いた状態では、これらの操作キー34が露出する。本体10が閉じられた状態では、操作キー34が隠れる。すなわち、本体10は、操作キー34を収納する収納機構を備えている。   The input device 1 includes a first body 31, a second body 32, and a hinge portion 33 having a hinge shaft for opening and closing the bodies 31 and 32. As shown in FIG. 3, a plurality of operation keys 34 are arranged on the inner surfaces of the first body 31 and the second body 32, and these operation keys 34 are exposed when the main body 10 is opened. . When the main body 10 is closed, the operation key 34 is hidden. That is, the main body 10 includes a storage mechanism that stores the operation keys 34.

各操作キー34は、典型的には、一般的に用いられる文字入力用のキーボードの機能及び配列を有するものであるが、その機能及び配列に限られない。これらの操作キー34は、主に、ユーザが、文字、数字、その他の記号等を制御装置40に入力するときに用いられる。   Each operation key 34 typically has a keyboard function and arrangement for commonly used character input, but is not limited to this function and arrangement. These operation keys 34 are mainly used when the user inputs characters, numbers, other symbols, and the like to the control device 40.

図4は、入力デバイス1の内部の構成を模式的に示す図である。図5は、入力デバイス1の電気的な構成を示すブロック図である。   FIG. 4 is a diagram schematically illustrating an internal configuration of the input device 1. FIG. 5 is a block diagram showing an electrical configuration of the input device 1.

入力デバイス1は、センサユニット17、切り替え検出器26、制御ユニット30、図示しないバッテリーを備えている。   The input device 1 includes a sensor unit 17, a switching detector 26, a control unit 30, and a battery (not shown).

図6(A)及び図6(B)は、センサユニット17を示す斜視図である。   FIGS. 6A and 6B are perspective views showing the sensor unit 17.

図6(A)に示すように、センサユニット17は、互いに異なる角度、例えば直交する2軸(X軸及びY軸)に沿った加速度を検出する加速度センサユニット16を有する。すなわち、加速度センサユニット16は、X軸方向の加速度センサ161、及び、Y軸方向の加速度センサ162の2つセンサを含む。   As shown in FIG. 6A, the sensor unit 17 includes an acceleration sensor unit 16 that detects acceleration along mutually different angles, for example, two orthogonal axes (X axis and Y axis). That is, the acceleration sensor unit 16 includes two sensors, an acceleration sensor 161 in the X-axis direction and an acceleration sensor 162 in the Y-axis direction.

また、センサユニット17は、図6(B)に示すように、その直交する2軸の周りの角加速度を検出する角速度センサユニット15を有する。すなわち、角速度センサユニット15は、ヨー方向の角速度センサ151、及び、ピッチ方向の角速度センサ152の2つのセンサを含む。   Further, as shown in FIG. 6B, the sensor unit 17 includes an angular velocity sensor unit 15 that detects angular acceleration about the two orthogonal axes. That is, the angular velocity sensor unit 15 includes two sensors, an angular velocity sensor 151 in the yaw direction and an angular velocity sensor 152 in the pitch direction.

これらの加速度センサユニット16及び角速度センサユニット15はパッケージングされ、回路基板25上の第1の面及びそれとは反対側の第2の面に搭載されている。このように、回路基板25の第1の面及び第2の面の両面に、加速度センサユニット16及び角速度センサユニット15がそれぞれ配置されることで、回路基板25の主面の面積を小さくすることができる。したがって、センサユニット17の小型化を実現することができる。これにより、センサユニット17が本体10に組み込まれやすくなる。特に、折りたたみタイプの入力デバイス1のように、各操作キー34が収納されるタイプのデバイスは、第1のボディ31及び第2のボディ32の厚さを薄く設計する必要がある。したがって、本実施の形態に係るセンサユニット17は有用である。   The acceleration sensor unit 16 and the angular velocity sensor unit 15 are packaged and mounted on a first surface on the circuit board 25 and a second surface opposite to the first surface. As described above, the acceleration sensor unit 16 and the angular velocity sensor unit 15 are respectively disposed on both the first surface and the second surface of the circuit board 25, thereby reducing the area of the main surface of the circuit board 25. Can do. Therefore, the sensor unit 17 can be reduced in size. Thereby, the sensor unit 17 is easily incorporated into the main body 10. In particular, a device of a type in which each operation key 34 is housed like the folding type input device 1 needs to design the first body 31 and the second body 32 to be thin. Therefore, the sensor unit 17 according to the present embodiment is useful.

ヨー及びピッチの角速度センサ151、152としては、角速度に比例したコリオリ力を検出する振動型のジャイロセンサが用いられる。X軸及びY軸の加速度センサ161、162としては、ピエゾ抵抗型、圧電型、静電容量型等、どのようなタイプのセンサであってもよい。角速度センサ151または152としては、振動型ジャイロセンサに限られず、回転コマジャイロセンサ、レーザリングジャイロセンサ、あるいはガスレートジャイロセンサ等が用いられてもよい。   As the yaw and pitch angular velocity sensors 151 and 152, vibration type gyro sensors that detect Coriolis force proportional to the angular velocity are used. The X-axis and Y-axis acceleration sensors 161 and 162 may be any type of sensor such as a piezoresistive type, a piezoelectric type, or a capacitance type. The angular velocity sensor 151 or 152 is not limited to the vibration type gyro sensor, and a rotary top gyro sensor, a laser ring gyro sensor, a gas rate gyro sensor, or the like may be used.

図2〜図4の説明では、便宜上、本体10の長手方向をZ’方向とし、第1のボディ31及び第2のボディ32が並ぶ方向(厚さ方向)をX’方向とする。また、本体10の幅方向をY’方向とする。この場合、上記センサユニット17は、回路基板25の、加速度センサユニット16及び角速度センサユニット15を搭載する面がX’−Y’平面に実質的に平行となるように、本体10に内蔵される。これにより、上記したように、両センサユニット16、15はX’軸及びY’軸の2軸に関する物理量を検出する。また、センサユニット17は、X’軸方向の加速度センサ161が検出する加速度の向きであるX’軸方向が、ヒンジ部33のヒンジ軸に沿うように配置される。   In the description of FIGS. 2 to 4, for the sake of convenience, the longitudinal direction of the main body 10 is the Z ′ direction, and the direction (thickness direction) in which the first body 31 and the second body 32 are arranged is the X ′ direction. Further, the width direction of the main body 10 is defined as a Y ′ direction. In this case, the sensor unit 17 is built in the main body 10 so that the surface of the circuit board 25 on which the acceleration sensor unit 16 and the angular velocity sensor unit 15 are mounted is substantially parallel to the X′-Y ′ plane. . Accordingly, as described above, both sensor units 16 and 15 detect physical quantities related to the two axes of the X ′ axis and the Y ′ axis. The sensor unit 17 is arranged so that the X′-axis direction, which is the direction of acceleration detected by the acceleration sensor 161 in the X′-axis direction, is along the hinge axis of the hinge portion 33.

説明の便宜上、以降では、入力デバイス1とともに動く座標系、つまり、入力デバイス1に固定された座標系をX’軸、Y’軸、Z’軸で表す。また、静止した地球上の座標系、つまり慣性座標系をX軸、Y軸、Z軸で表す。また、入力デバイス1の動きに関し、X’軸の周りの回転の方向をピッチ方向、Y’軸の周りの回転の方向をヨー方向といい、Z’軸(ロール軸)方向の周りの回転の方向をロール方向という場合もある。   For convenience of explanation, hereinafter, a coordinate system that moves together with the input device 1, that is, a coordinate system that is fixed to the input device 1 is represented by an X ′ axis, a Y ′ axis, and a Z ′ axis. A coordinate system on a stationary earth, that is, an inertial coordinate system is represented by an X axis, a Y axis, and a Z axis. Regarding the movement of the input device 1, the direction of rotation around the X ′ axis is called the pitch direction, the direction of rotation around the Y ′ axis is called the yaw direction, and the rotation around the Z ′ axis (roll axis) direction. The direction may be referred to as a roll direction.

切り替え検出器26は、入力デバイス1の一の操作形態及び他の操作形態の切り替えを検出する。つまり、切り替え検出器26は、入力デバイス1の本体10が閉じた状態と開いた状態との切り替えを検出する。切り替え検出器26として、メカニカルセンサ、磁気センサ、光センサ、圧力センサ等、公知のものが用いられればよい。   The switching detector 26 detects switching between one operation mode of the input device 1 and another operation mode. That is, the switching detector 26 detects switching between the closed state and the opened state of the main body 10 of the input device 1. As the switching detector 26, a known sensor such as a mechanical sensor, a magnetic sensor, an optical sensor, or a pressure sensor may be used.

制御ユニット30は、メイン基板18、メイン基板18上にマウントされたMPU19(あるいはCPU)、水晶発振器20、送信機21、メイン基板18上にプリントされたアンテナ22を含む。   The control unit 30 includes a main board 18, an MPU 19 (or CPU) mounted on the main board 18, a crystal oscillator 20, a transmitter 21, and an antenna 22 printed on the main board 18.

MPU19は、必要な揮発性及び不揮発性メモリを内蔵している。MPU19には、センサユニット17による検出信号、操作部14、操作キー34による操作信号等が入力される。MPU19は、これらの入力信号に応じた所定の制御信号を生成するため、各種の演算処理等を行う。上記メモリは、MPU19とは別体で設けられていてもよい。MPU19に限られず、DSP、FPGA、ASIC等が用いられてもよい。   The MPU 19 incorporates necessary volatile and nonvolatile memories. The MPU 19 receives a detection signal from the sensor unit 17, an operation signal from the operation unit 14, the operation key 34, and the like. The MPU 19 performs various arithmetic processes in order to generate a predetermined control signal corresponding to these input signals. The memory may be provided separately from the MPU 19. The MPU 19 is not limited, and a DSP, FPGA, ASIC, or the like may be used.

典型的には、センサユニット17はアナログ信号を出力するものである。この場合、MPU19は、A/D(Analog/Digital)コンバータを含む。しかし、センサユニット17がA/Dコンバータを含むユニットであってもよい。   Typically, the sensor unit 17 outputs an analog signal. In this case, the MPU 19 includes an A / D (Analog / Digital) converter. However, the sensor unit 17 may be a unit including an A / D converter.

送信機21は、MPU19で生成された制御信号(入力情報または所定のコマンド)を、例えばRF無線信号として、アンテナ22を介して制御装置40に送信する。   The transmitter 21 transmits a control signal (input information or a predetermined command) generated by the MPU 19 to the control device 40 via the antenna 22 as an RF radio signal, for example.

水晶発振器20は、クロックを生成し、これをMPU19に供給する。   The crystal oscillator 20 generates a clock and supplies it to the MPU 19.

制御装置40はコンピュータであり、MPU35(あるいはCPU)、RAM36、ROM37、表示制御部42、ビデオRAM41、アンテナ39及び受信機38等を含む。   The control device 40 is a computer and includes an MPU 35 (or CPU), a RAM 36, a ROM 37, a display control unit 42, a video RAM 41, an antenna 39, a receiver 38, and the like.

受信機38は、入力デバイス1から送信された制御信号を、アンテナ39を介して受信する。MPU35は、その制御信号を解析し、各種の演算処理を行う。表示制御部42は、MPU35の制御に応じて、主に、表示装置5の画面3上に表示するための画面データを生成する。ビデオRAM41は、表示制御部42の作業領域となり、生成された画面データを一時的に格納する。   The receiver 38 receives the control signal transmitted from the input device 1 via the antenna 39. The MPU 35 analyzes the control signal and performs various arithmetic processes. The display control unit 42 mainly generates screen data to be displayed on the screen 3 of the display device 5 in accordance with the control of the MPU 35. The video RAM 41 serves as a work area for the display control unit 42 and temporarily stores the generated screen data.

制御装置40は、入力デバイス1に専用の機器であってもよいが、PC等であってもよい。制御装置40は、PCに限られず、表示装置5と一体となったコンピュータであってもよいし、オーディオ/ビジュアル機器、プロジェクタ、ゲーム機器、またはカーナビゲーション機器等であってもよい。   The control device 40 may be a device dedicated to the input device 1, but may be a PC or the like. The control device 40 is not limited to a PC, and may be a computer integrated with the display device 5, or may be an audio / visual device, a projector, a game device, a car navigation device, or the like.

表示装置5は、例えば液晶ディスプレイ、EL(Electro-Luminescence)ディスプレイ等が挙げられるが、これらに限られない。あるいは、表示装置5は、テレビジョン放送等を受信できるディスプレイと一体となった装置でもよい。   Examples of the display device 5 include a liquid crystal display and an EL (Electro-Luminescence) display, but are not limited thereto. Alternatively, the display device 5 may be a device integrated with a display capable of receiving a television broadcast or the like.

図7は、表示装置5に表示される画面3の例を示す図である。画面3上には、アイコン4やポインタ2等のUIが表示されている。アイコンとは、コンピュータ上のプログラムの機能、実行コマンド、またはファイルの内容等が画面3上で画像化されたものである。なお、画面3上の水平方向をX軸方向とし、垂直方向をY軸方向とする。以降の説明の理解を容易にするため、特に明示がない限り、入力デバイス1で操作される対象となるUIがポインタ2(いわゆるカーソル)であるとして説明する。   FIG. 7 is a diagram illustrating an example of the screen 3 displayed on the display device 5. On the screen 3, UIs such as an icon 4 and a pointer 2 are displayed. An icon is an image of the function of a program on a computer, an execution command, or the contents of a file on the screen 3. The horizontal direction on the screen 3 is the X-axis direction, and the vertical direction is the Y-axis direction. In order to facilitate understanding of the following description, it is assumed that the UI to be operated by the input device 1 is a pointer 2 (so-called cursor) unless otherwise specified.

図8(A)、(B)は、ユーザが入力デバイス1を握った様子を示す図である。入力デバイス1は、上記ボタン11、12、13のほか、例えばテレビ等を操作するリモートコントローラに設けられるような、図示しない各種の操作ボタンや電源スイッチ等の操作部を備えていてもよい。このようにユーザが入力デバイス1を握った状態で、入力デバイス1を空中で移動させ、あるいは操作部14を操作することにより、その入力情報が制御装置40に出力され、制御装置40によりUIが制御される。   FIGS. 8A and 8B are diagrams illustrating a state where the user holds the input device 1. In addition to the buttons 11, 12, and 13, the input device 1 may include various operation buttons (not shown) and operation units such as a power switch that are provided in a remote controller that operates a television or the like. In this way, when the user holds the input device 1, the input device 1 is moved in the air or the operation unit 14 is operated, whereby the input information is output to the control device 40, and the UI is displayed by the control device 40. Be controlled.

次に、入力デバイス1の動かし方及びこれによる画面3上のポインタ2の動きの典型的な例を説明する。   Next, a typical example of how to move the input device 1 and the movement of the pointer 2 on the screen 3 due to this will be described.

図8(A)、(B)に示すように、ユーザは、入力デバイス1のボタン11、12が配置されている側を鉛直上向きなるように握る。今、鉛直上向は、Y軸方向に相当する。この状態で、センサユニット17の回路基板25(図6参照)は、表示装置5の画面3に対して平行に近くなり、センサユニット17の検出軸である2軸が、画面3上の水平軸(X軸)及び垂直軸(Y軸)に対応するようになる。以下、このような図8(A)、(B)に示す入力デバイス1の姿勢を基本姿勢という。   As shown in FIGS. 8A and 8B, the user holds the side of the input device 1 on which the buttons 11 and 12 are arranged so as to face vertically upward. Now, the vertically upward direction corresponds to the Y-axis direction. In this state, the circuit board 25 (see FIG. 6) of the sensor unit 17 is nearly parallel to the screen 3 of the display device 5, and the two axes that are the detection axes of the sensor unit 17 are horizontal axes on the screen 3. It corresponds to the (X axis) and the vertical axis (Y axis). Hereinafter, the posture of the input device 1 shown in FIGS. 8A and 8B is referred to as a basic posture.

図8(A)に示すように、基本姿勢の状態で、ユーザが手首や腕を左右方向、つまりヨー方向に振る。このとき、X’軸方向の加速度センサ161は、X’軸方向の加速度axを検出し、ヨー方向の角速度センサ151は、Y’軸の周りの角速度ωψを検出する。これらの検出値に基き、制御装置40は、ポインタ2がX軸方向に移動するようにそのポインタ2の表示を制御する。 As shown in FIG. 8A, in the basic posture state, the user swings the wrist or arm in the left-right direction, that is, the yaw direction. At this time, the acceleration sensor 161 in the X ′ axis direction detects the acceleration a x in the X ′ axis direction, and the angular velocity sensor 151 in the yaw direction detects the angular velocity ω ψ around the Y ′ axis. Based on these detection values, the control device 40 controls the display of the pointer 2 so that the pointer 2 moves in the X-axis direction.

一方、図8(B)に示すように、基本姿勢の状態で、ユーザが手首や腕を上下方向、つまりピッチ方向に振る。このとき、Y’軸方向の加速度センサ162は、Y’軸方向の加速度ayを検出し、ピッチ方向の角速度センサ152は、X’軸の周りの角速度ωθを検出する。これらの検出値に基き、制御装置40は、ポインタ2がY軸方向に移動するようにそのポインタ2の表示を制御する。 On the other hand, as shown in FIG. 8B, the user swings his / her wrist or arm in the vertical direction, that is, the pitch direction in the basic posture state. At this time, the acceleration sensor 162 in the Y ′ axis direction detects the acceleration a y in the Y ′ axis direction, and the angular velocity sensor 152 in the pitch direction detects an angular velocity ω θ around the X ′ axis. Based on these detection values, the control device 40 controls the display of the pointer 2 so that the pointer 2 moves in the Y-axis direction.

入力装置1のMPU19は、所定の第1のクロックごとに取得する加速度値及び角速度値に基づき、典型的には、その第1のクロックごとにX軸方向の速度値及びY軸方向の速度値を算出し、これらを出力する。MPU19は、速度値の計算の方法によっては、第1のクロックよりも遅い第2のクロックごとにX軸及びY軸方向のそれぞれ速度値を出力する場合もある。   The MPU 19 of the input device 1 is typically based on the acceleration value and the angular velocity value acquired at each predetermined first clock, and typically, the velocity value in the X-axis direction and the velocity value in the Y-axis direction at each first clock. Are calculated and output. Depending on the speed value calculation method, the MPU 19 may output speed values in the X-axis and Y-axis directions for each second clock slower than the first clock.

制御装置40は、入力装置1の単位時間当りのヨー方向の変位を、画面3上のX軸上でのポインタ2の変位量に変換し、単位時間当りのピッチ方向の変位を、画面3上のY軸上でのポインタ2の変位量に変換することにより、ポインタ2を移動させる。典型的には、制御装置40のMPU19は、上記第1または第2のクロック数ごとに供給されてくる速度値について、(n−1)回目に供給された速度値に、n回目に供給された速度値を加算する。これにより、当該n回目に供給された速度値が、ポインタ2の変位量に相当し、ポインタ2の画面3上の座標情報が生成される。この場合、主として制御装置40のMPU19が、座標情報生成手段として機能する。   The control device 40 converts the displacement in the yaw direction per unit time of the input device 1 into the displacement amount of the pointer 2 on the X axis on the screen 3, and the displacement in the pitch direction per unit time on the screen 3 The pointer 2 is moved by converting it into a displacement amount of the pointer 2 on the Y axis. Typically, the MPU 19 of the control device 40 supplies the speed value supplied for each of the first or second clock numbers to the speed value supplied for the (n−1) th time, to the nth time. Add the speed value. Thus, the velocity value supplied for the nth time corresponds to the displacement amount of the pointer 2, and the coordinate information on the screen 3 of the pointer 2 is generated. In this case, the MPU 19 of the control device 40 mainly functions as coordinate information generating means.

次に、以上のように構成された制御システム100の基本的な動作を説明する。図9は、その動作を示すフローチャートである。   Next, the basic operation of the control system 100 configured as described above will be described. FIG. 9 is a flowchart showing the operation.

入力デバイス1に電源が投入される。例えば、ユーザが入力デバイス1または制御装置40に設けられた電源スイッチ等を入れることにより、入力デバイス1に電源が投入される。電源が投入されると、角速度センサユニット15から2軸の角速度信号が出力される。MPU19は、この2軸の角速度信号による第1の角速度値ωψ及び第2の角速度値ωθを取得する(ステップ101)。 The input device 1 is turned on. For example, when the user turns on a power switch or the like provided in the input device 1 or the control device 40, the input device 1 is powered on. When the power is turned on, a biaxial angular velocity signal is output from the angular velocity sensor unit 15. The MPU 19 obtains the first angular velocity value ω ψ and the second angular velocity value ω θ from the biaxial angular velocity signal (step 101).

また、入力デバイス1に電源が投入されると、加速度センサユニット16から2軸の加速度信号が出力される。MPU19は、この2軸の加速度信号による第1の加速度値ax及び第2の加速度値ayを取得する(ステップ102)。この加速度値の信号は、電源が投入された時点での入力デバイス1の姿勢に対応する信号である。 When the input device 1 is turned on, a biaxial acceleration signal is output from the acceleration sensor unit 16. The MPU 19 acquires the first acceleration value a x and the second acceleration value a y based on the biaxial acceleration signal (step 102). This acceleration value signal is a signal corresponding to the attitude of the input device 1 at the time when the power is turned on.

なお、MPU19は、典型的にはステップ101及び102を所定のクロック周期ごとに同期して行う。   The MPU 19 typically performs Steps 101 and 102 in synchronization with each other at a predetermined clock cycle.

MPU19は、加速度値(ax、ay)及び角速度値(ωψ、ωθ)に基いて、所定の演算により速度値(第1の速度値Vx、第2の速度値Vy)を算出する(ステップ103)。第1の速度値VxはX軸に沿う方向の速度値であり、第2の速度値VyはY軸に沿う方向の速度値である。この速度値の算出方法については、後に詳述する。この点において、例えばMPU19及びセンサユニット17(あるいはこれらにさらに送信機21を加えたもの)は、ポインタ2を画面3上で移動させるための移動コマンドを出力する出力手段として機能する。 The MPU 19 obtains speed values (first speed value V x , second speed value V y ) by a predetermined calculation based on the acceleration values (a x , a y ) and the angular velocity values (ω ψ , ω θ ). Calculate (step 103). The first velocity value V x is a velocity value in the direction along the X axis, and the second velocity value V y is a velocity value in the direction along the Y axis. This speed value calculation method will be described later in detail. In this respect, for example, the MPU 19 and the sensor unit 17 (or the transmitter unit 21 added thereto) function as output means for outputting a movement command for moving the pointer 2 on the screen 3.

このように、本実施の形態では、加速度値(ax、ay)が単純に積分されて速度値(Vx、Vy)が算出されるのではなく、加速度値(ax、ay)及び角速度値(ωψ、ωθ)に基き、速度値が(Vx、Vy)される。これにより、後述するように、ユーザの直感に合致した入力デバイス1の操作感が得られ、また、画面3上のポインタ2の動きも入力デバイス1の動きに正確に合致する。しかしながら、必ずしも加速度値(ax、ay)及び角速度値(ωψ、ωθ)に基き速度値(Vx、Vy)が得られなくてもよく、例えば加速度値(ax、ay)が単純に積分されて速度値(Vx、Vy)が算出されてもよい。 Thus, in the present embodiment, the acceleration values (a x , a y ) are not simply integrated to calculate the velocity values (V x , V y ), but the acceleration values (a x , a y ) are calculated. ) And angular velocity values (ω ψ , ω θ ), the velocity values are (V x , V y ). Thereby, as will be described later, an operational feeling of the input device 1 that matches the user's intuition is obtained, and the movement of the pointer 2 on the screen 3 also exactly matches the movement of the input device 1. However, the velocity values (V x , V y ) are not necessarily obtained based on the acceleration values (a x , a y ) and the angular velocity values (ω ψ , ω θ ). For example, the acceleration values (a x , a y) ) May be simply integrated to calculate the velocity values (V x , V y ).

MPU19は、求められた速度値(Vx、Vy)を含む情報を、移動コマンドとして送信機21及びアンテナ22を介して制御装置40に送信する(ステップ104)。 The MPU 19 transmits information including the obtained velocity values (V x , V y ) as a movement command to the control device 40 via the transmitter 21 and the antenna 22 (step 104).

制御装置40のMPU35は、アンテナ39及び受信機38を介して、速度値(Vx、Vy)の情報を受信する(ステップ105)。入力デバイス1は、所定のクロックごとに、つまり単位時間ごとに速度値(Vx、Vy)を送信するので、制御装置40は、これを受信し、単位時間ごとのX軸及びY軸方向の変位量を取得することができる。 The MPU 35 of the control device 40 receives the velocity value (V x , V y ) information via the antenna 39 and the receiver 38 (step 105). Since the input device 1 transmits the speed values (V x , V y ) at every predetermined clock, that is, at every unit time, the control device 40 receives this, and in the X-axis and Y-axis directions at every unit time Can be obtained.

MPU35は、下の式(1)、(2)より、取得した単位時間当りのX軸及びY軸方向の変位量に応じた、ポインタ2の画面3上における座標値(X(t)、Y(t))(座標情報)を生成する(ステップ106)(生成手段)。この座標値の生成により、MPU35は、ポインタ2が画面3上で移動するように表示を制御する(ステップ107)。   The MPU 35 calculates the coordinate values (X (t), Y on the screen 3) of the pointer 2 according to the acquired displacement amounts in the X-axis and Y-axis directions per unit time from the following expressions (1) and (2). (t)) (coordinate information) is generated (step 106) (generating means). By generating the coordinate value, the MPU 35 controls the display so that the pointer 2 moves on the screen 3 (step 107).

X(t) =X(t-1)+Vx・・・(1)
Y(t) =Y(t-1)+Vy・・・(2)。
X (t) = X (t-1) + V x (1)
Y (t) = Y (t -1) + V y ··· (2).

図9では、入力デバイス1が主要な演算を行って速度値(Vx、Vy)を算出していた。図10に示す実施の形態では、制御装置40が主要な演算を行う。 In FIG. 9, the input device 1 performs the main calculation to calculate the velocity values (V x , V y ). In the embodiment shown in FIG. 10, the control device 40 performs main calculations.

図10に示すように、ステップ201及び202は、ステップ101及び102と同様の処理である。入力デバイス1が、例えばセンサユニット17から出力された2軸の加速度値及び2軸の角速度値である検出値の情報を制御装置40に送信する(ステップ203)。制御装置40のMPU35は、この検出値の情報を受信し(ステップ204)、ステップ103、106及び107と同様の処理を実行する(ステップ205〜207)。   As shown in FIG. 10, steps 201 and 202 are the same processes as steps 101 and 102. The input device 1 transmits, for example, information on the detected value that is the biaxial acceleration value and biaxial angular velocity value output from the sensor unit 17 to the control device 40 (step 203). The MPU 35 of the control device 40 receives the detected value information (step 204) and executes the same processing as steps 103, 106 and 107 (steps 205 to 207).

次に、ユーザが入力デバイス1の本体10の開閉するときの、入力デバイス1の動作を説明する。図11は、その動作を示すフローチャートである。   Next, the operation of the input device 1 when the user opens and closes the main body 10 of the input device 1 will be described. FIG. 11 is a flowchart showing the operation.

切り替え検出器26により本体10が開いた状態が検出されたか否かを、MPU19が判定する(ステップ301)。本体10が開いた状態が検出された場合、MPU19は、図9に示したステップ104の移動コマンドの送信(速度値(Vx、Vy)の送信)を停止する(ステップ302)。これにより、画面3上のポインタ2の動きが停止される。このように移動コマンドの送信が停止される場合、ステップ302では、ステップ102における速度値の算出も停止されてもよい。 The MPU 19 determines whether or not the state in which the main body 10 is opened is detected by the switching detector 26 (step 301). When it is detected that the main body 10 is open, the MPU 19 stops the movement command transmission (transmission of velocity values (V x , V y )) in step 104 shown in FIG. 9 (step 302). Thereby, the movement of the pointer 2 on the screen 3 is stopped. When transmission of the movement command is stopped in this way, in step 302, the calculation of the speed value in step 102 may also be stopped.

本体10が開いた状態が切り替え検出器26により検出されない場合、つまり、本体10が閉じられた状態では、MPU19は、図9に示したステップ101〜104を実行する(ステップ303)。すなわち、移動コマンドが送信され、制御装置40は、図9に示したステップ105〜107を実行することで、ポインタ2が画面3上で移動する。   When the switching detector 26 does not detect that the main body 10 is opened, that is, when the main body 10 is closed, the MPU 19 executes steps 101 to 104 shown in FIG. 9 (step 303). That is, the movement command is transmitted, and the control device 40 executes steps 105 to 107 shown in FIG. 9 so that the pointer 2 moves on the screen 3.

移動コマンドの送信が停止されると(ステップ302)、MPU19は、本体10が閉じられた状態が切り替え検出器26により検出されたか否かを判定する(ステップ304)。本体10が閉じられた場合、ステップ303に戻る。   When transmission of the movement command is stopped (step 302), the MPU 19 determines whether or not the switching detector 26 has detected that the main body 10 is closed (step 304). When the main body 10 is closed, the process returns to step 303.

本体10が閉じられた状態が切り替え検出器26により検出されない場合、つまり、本体10が開いた状態において、MPU19は、ユーザにより操作キー34を介して入力操作されたか否かを判定する(ステップ305)。   When the switching detector 26 does not detect that the main body 10 is closed, that is, when the main body 10 is open, the MPU 19 determines whether or not an input operation has been performed by the user via the operation key 34 (step 305). ).

ユーザにより操作キー34を介して入力操作された場合、MPU19は、その操作キー34の入力操作に応じたコマンドを生成し(ステップ306)、必要に応じてこれを制御装置40に送信する。ここでは、例えばユーザは、文字、数字、その他の記号を、各操作キー34を介して入力デバイス1に入力する。制御装置40は、そのコマンドを受信し、そのコマンドに応じた、文字入力等の所定の処理を実行する。操作キー34による入力操作は、文字、数字、その他の記号の入力操作に限られず、制御装置40または入力デバイス1が備える様々なプログラムを実行するときの入力操作であってもよい。   When an input operation is performed by the user via the operation key 34, the MPU 19 generates a command corresponding to the input operation of the operation key 34 (step 306), and transmits this to the control device 40 as necessary. Here, for example, the user inputs characters, numbers, and other symbols to the input device 1 via the operation keys 34. The control device 40 receives the command and executes predetermined processing such as character input in accordance with the command. The input operation using the operation key 34 is not limited to the input operation of characters, numbers, and other symbols, and may be an input operation when executing various programs included in the control device 40 or the input device 1.

ステップ305で操作キー34による入力操作がない場合は、ステップ304に戻る。   If there is no input operation by the operation key 34 in step 305, the process returns to step 304.

このように、本体10が開いたときに操作される操作形態と、本体10が閉じたときに操作される操作形態とでは、本体10の姿勢が異なり、また、ユーザはその本体10の持ち方が異なる。本実施の形態では、本体10が開いた状態のとき、移動コマンドの送信が停止されることにより、文字入力等の操作時の煩雑さがなくなり、操作性が向上する。また、ユーザがポインティング操作をする時には、本体10は折りたたまれて操作キー34が収納される。したがって、例えば、ポインティング操作時に操作キーが露出している場合は、操作キーの誤操作、例えばユーザが意図しないで操作キーを押してしまうことがあり得るが、本実施の形態では、そのことを防止することができる。   In this way, the posture of the main body 10 differs between the operation mode operated when the main body 10 is opened and the operation mode operated when the main body 10 is closed, and the user holds the main body 10. Is different. In the present embodiment, when the main body 10 is in the open state, the transmission of the movement command is stopped, so that troublesome operations such as character input are eliminated and the operability is improved. When the user performs a pointing operation, the main body 10 is folded and the operation keys 34 are stored. Therefore, for example, when the operation key is exposed at the time of the pointing operation, there is a possibility that the operation key is erroneously operated, for example, the user presses the operation key without intention, but this embodiment prevents this. be able to.

上記ステップ302では、MPU19は、移動コマンドの送信を停止する形態に限られない。MPU19は、画面3上でのポインタ2の状態を、本体10の動きに非相関な状態にするための非相関処理を実行すればよい。   In step 302 described above, the MPU 19 is not limited to a mode in which transmission of the movement command is stopped. The MPU 19 may perform a decorrelation process for making the state of the pointer 2 on the screen 3 uncorrelated with the movement of the main body 10.

非相関処理とは、移動コマンドの出力を停止するためのコマンドを出力する場合の他、次の各処理が挙げられる。
1)例えば、ポインタ2の画面上での移動量をゼロとするためのコマンドを出力する処理、
2)ポインタ2を非表示にするためのコマンドを出力する処理、
3)ポインタ2の画像を所定の画像に変更するためのコマンドを出力する処理、
4)ポインタ2の移動量が画面の大きさの範囲を十分に超えるほどのコマンドを出力する処理、
5)本体10の動きによらず、ポインタ2が、一定速度または決められた動きにより、例えば画面3の端部(または所定の座標位置)まで移動させる処理、
その他、様々な非相関処理が挙げられる。
The non-correlation process includes the following processes in addition to outputting a command for stopping the output of the movement command.
1) For example, a process for outputting a command for setting the movement amount of the pointer 2 on the screen to zero,
2) Processing to output a command for hiding the pointer 2;
3) Processing for outputting a command for changing the image of the pointer 2 to a predetermined image;
4) Processing to output a command so that the movement amount of the pointer 2 sufficiently exceeds the range of the screen size;
5) A process of moving the pointer 2 to, for example, the end of the screen 3 (or a predetermined coordinate position) at a constant speed or a determined movement regardless of the movement of the main body 10;
In addition, various non-correlation processes can be mentioned.

図11に示した処理を主に制御装置40が実行してもよい。この場合、例えばステップ301で、本体10が開いた状態が検出された場合、入力デバイス1がその情報を、操作形態の情報である形態情報として制御装置40に送信する。制御装置40は、その形態情報を受信し、制御装置40のMPU35は、その形態情報に基づき、本体10が現在どのような操作形態にあるか、つまり本体10が開いているか閉じられているかのいずれかを判定する。そして、MPU35は、本体10の操作形態がいずれであるかに基づいて、移動コマンドに応じてポインタの座標情報を生成するか、非相関処理を実行するかのうち、いずれか一方を実行する。その場合の非相関処理としては、上述した2)〜5)のうちいずれか少なくとも1つである。また、ステップ304においても、入力デバイス1が同様に形態情報を制御装置40に送信すればよい。   The control device 40 may mainly execute the process shown in FIG. In this case, for example, when it is detected in step 301 that the main body 10 is open, the input device 1 transmits the information to the control device 40 as form information that is operation form information. The control device 40 receives the configuration information, and the MPU 35 of the control device 40 determines, based on the configuration information, what operation mode the main body 10 is currently in, that is, whether the main body 10 is open or closed. Judge either one. Then, the MPU 35 executes either one of generating coordinate information of the pointer in accordance with the movement command or executing the decorrelation process based on which operation mode of the main body 10 is. In this case, the decorrelation process is at least one of 2) to 5) described above. Also in step 304, the input device 1 may similarly transmit the form information to the control device 40.

図12は、本発明の他の実施の形態に係る入力デバイスの電気的な構成を示すブロック図である。これ以降の説明では、図2及び図3で示した入力デバイス1が含む、回路、部材、機能等について同様のものは説明を簡略化または省略し、異なる点を中心に説明する。   FIG. 12 is a block diagram showing an electrical configuration of an input device according to another embodiment of the present invention. In the following description, the same components, functions, and the like included in the input device 1 shown in FIGS. 2 and 3 will be simplified or omitted, and different points will be mainly described.

この入力デバイス101は、ユーザによりON/OFF操作される操作スイッチ27を備えている。操作スイッチ27は、例えば、ユーザが本体10を開いている状態において上記非相関処理が実行されている途中で、非相関処理を停止させ、ポインタ2の移動処理を復帰させるためのスイッチである。   The input device 101 includes an operation switch 27 that is turned ON / OFF by a user. The operation switch 27 is, for example, a switch for stopping the decorrelation process and returning the movement process of the pointer 2 while the decorrelation process is being executed while the user opens the main body 10.

入力デバイス101の外観は、図2及び図3で示した入力デバイス1と同様のものでよい。操作スイッチ27は、典型的には、上記実施の形態に係る入力デバイス1の本体10の内面に設けられているが、本体10の外面に設けられていてもよい。操作スイッチ27は、複数の操作キー34のうち1つにより、または、それらの2つ以上の組合せにより構成されていてもよいし、スライドスイッチやロータリスイッチ等のディップスイッチであってもよい。   The appearance of the input device 101 may be the same as that of the input device 1 shown in FIGS. The operation switch 27 is typically provided on the inner surface of the main body 10 of the input device 1 according to the above embodiment, but may be provided on the outer surface of the main body 10. The operation switch 27 may be configured by one of a plurality of operation keys 34 or a combination of two or more thereof, or may be a dip switch such as a slide switch or a rotary switch.

図13は、入力デバイス101の動作を示すフローチャートである。   FIG. 13 is a flowchart showing the operation of the input device 101.

ステップ401〜404は、図11におけるステップ301〜304と同様の処理である。   Steps 401 to 404 are the same processes as steps 301 to 304 in FIG.

ステップ405において、MPU19は、ユーザの操作により操作スイッチ27がONとされた否かを判定する(ステップ405)。操作スイッチ27がONとされていない場合、MPU19は、図11におけるステップ305及び306と同様の処理を実行する(ステップ406及び407)。   In step 405, the MPU 19 determines whether or not the operation switch 27 is turned on by a user operation (step 405). When the operation switch 27 is not turned on, the MPU 19 executes the same processing as steps 305 and 306 in FIG. 11 (steps 406 and 407).

操作スイッチ27がONとされた場合、MPU19は、ステップ403と同様に図9におけるステップ101〜104の処理を実行する(ステップ408)。すなわち、MPU19は、本体10が開いた状態でも、ポインタ2を移動させるために移動コマンドを送信する。この場合、本体10が開いた状態で、ユーザは、センサユニット17の各検出軸と、ポインタ2の画面上での座標軸とが対応するように、本体10を握って操作すればよい。また、本体10が開いている状態において、ユーザにより操作キー34による入力操作があった場合(ステップ409のYES)、MPU19は、その入力操作に応じたコマンドを生成し(ステップ410)、必要に応じてこれを送信する。   When the operation switch 27 is turned on, the MPU 19 executes the processing of steps 101 to 104 in FIG. 9 as in step 403 (step 408). That is, the MPU 19 transmits a movement command to move the pointer 2 even when the main body 10 is open. In this case, in a state where the main body 10 is open, the user may hold and operate the main body 10 so that each detection axis of the sensor unit 17 corresponds to the coordinate axis on the screen of the pointer 2. If the user performs an input operation using the operation key 34 with the main body 10 open (YES in step 409), the MPU 19 generates a command corresponding to the input operation (step 410), and is necessary. Send this in response.

そして、操作スイッチ27がOFFとされた場合(ステップ411のYES)、ステップ406に戻る。   When the operation switch 27 is turned off (YES in step 411), the process returns to step 406.

このように本体10を開いている途中であっても、ユーザが操作スイッチ27をONとすることで、ポインティング操作が可能となり、利便性が向上する。   Thus, even when the main body 10 is being opened, when the user turns on the operation switch 27, a pointing operation is possible, and convenience is improved.

図13に示した処理を主に制御装置40が実行してもよい。この場合、例えばステップ402における上記非相関処理を制御装置40が実行すればよい。この場合、ステップ401、404において、入力デバイス101が形態情報を制御装置40に送信すればよい。また、ステップ405、411において、入力デバイス101の操作スイッチのON/OFFの情報を制御装置40に送信し、制御装置40は、これを受信して、その情報に基づき、ポインタ2の座標生成及び非相関処理のうちいずれか一方を実行すればよい。   The control device 40 may mainly execute the processing shown in FIG. In this case, for example, the control device 40 may execute the decorrelation process in step 402. In this case, in steps 401 and 404, the input device 101 may transmit the form information to the control device 40. In steps 405 and 411, information on ON / OFF of the operation switch of the input device 101 is transmitted to the control device 40, and the control device 40 receives the information and generates the coordinates of the pointer 2 based on the information. Any one of the decorrelation processes may be executed.

図12及び図13で示した実施形態に係る入力デバイス101では、上記したように、ユーザが、センサユニット17の各検出軸とポインタ2の画面上での座標軸とが対応するように、本体10を握って操作する場合について説明した。しかし、次に説明するように、ソフトウェアにより検出軸がシフトされる実施形態もある。   In the input device 101 according to the embodiment shown in FIGS. 12 and 13, as described above, the main body 10 is set so that the user corresponds to the detection axes of the sensor unit 17 and the coordinate axes of the pointer 2 on the screen. We explained the case of operating by holding. However, as described below, there is also an embodiment in which the detection axis is shifted by software.

図14は、他の実施の形態に係るセンサユニットを示す斜視図である。図15は、このセンサユニット117を備える入力デバイス201の電気的な構成を示すブロック図である。   FIG. 14 is a perspective view showing a sensor unit according to another embodiment. FIG. 15 is a block diagram showing an electrical configuration of the input device 201 including the sensor unit 117.

図14に示したセンサユニット117と、上記センサユニット17と異なる点は、加速度センサユニット116が3軸の加速度センサを有する点、及び、角速度センサユニット115が3軸の角速度センサを有する点である。すなわち、加速度センサユニット116は、上記加速度センサユニット16にはない、Z’軸方向の加速度を検出する加速度センサを有している。また、角速度センサユニット115は、上記角速度センサユニット15にはない、Z’軸周りであるロール方向の角速度を検出する角速度センサを有している。なお図6(A)及び(B)と同様に、回路基板25の、加速度センサユニット116が搭載される面とは反対側の面に、角速度センサユニット115が搭載されている。   The sensor unit 117 shown in FIG. 14 differs from the sensor unit 17 in that the acceleration sensor unit 116 has a triaxial acceleration sensor and the angular velocity sensor unit 115 has a triaxial angular velocity sensor. . That is, the acceleration sensor unit 116 has an acceleration sensor that detects acceleration in the Z′-axis direction, which is not included in the acceleration sensor unit 16. Further, the angular velocity sensor unit 115 has an angular velocity sensor that detects an angular velocity in the roll direction around the Z ′ axis, which is not included in the angular velocity sensor unit 15. 6A and 6B, the angular velocity sensor unit 115 is mounted on the surface of the circuit board 25 opposite to the surface on which the acceleration sensor unit 116 is mounted.

図15に示すように、入力デバイス201は、このセンサユニット117と、図12において説明した操作スイッチ27を備えている。このセンサユニット117を搭載した入力デバイス201の外観は、図2及び図3で示した入力デバイス1と同様のものでよい。   As shown in FIG. 15, the input device 201 includes the sensor unit 117 and the operation switch 27 described in FIG. The appearance of the input device 201 on which the sensor unit 117 is mounted may be the same as that of the input device 1 shown in FIGS.

図17は、入力デバイス201の本体10を閉じた状態でポインティング操作される場合の、センサユニット117及び表示装置5の画面3の姿勢の関係を示す図である。この場合、Y軸方向が鉛直上向き方向とされ、画面3に対するセンサユニット117の関係は、図6(A)及び(B)で示した姿勢になる。   FIG. 17 is a diagram illustrating the relationship between the posture of the screen 3 of the sensor unit 117 and the display device 5 when a pointing operation is performed with the main body 10 of the input device 201 closed. In this case, the Y-axis direction is the vertical upward direction, and the relationship of the sensor unit 117 with respect to the screen 3 is the posture shown in FIGS. 6 (A) and 6 (B).

図18は、入力デバイス201の本体10が開いた状態でポインティング操作される場合の、センサユニット117及び表示装置5の画面3の姿勢の関係を示す図である。図17に示したセンサユニット117の姿勢におけるX’軸及びZ’軸が、図18に示したセンサユニット117の姿勢におけるZ’軸及びX’軸にそれぞれ対応するようになる。Y’軸は、図17及び図18で変わらない。すなわち、図18ではZ’軸及びY’軸が、画面3上でのX軸及びY軸(図6参照)に対応するようになる。   FIG. 18 is a diagram illustrating the relationship between the posture of the screen 3 of the sensor unit 117 and the display device 5 when a pointing operation is performed with the main body 10 of the input device 201 open. The X ′ axis and the Z ′ axis in the posture of the sensor unit 117 shown in FIG. 17 correspond to the Z ′ axis and the X ′ axis in the posture of the sensor unit 117 shown in FIG. The Y ′ axis does not change in FIGS. 17 and 18. That is, in FIG. 18, the Z ′ axis and the Y ′ axis correspond to the X axis and the Y axis (see FIG. 6) on the screen 3.

図16は、この入力デバイス201の、ユーザにより操作形態が変えられるときの動作を示すフローチャートである。   FIG. 16 is a flowchart showing the operation of the input device 201 when the operation mode is changed by the user.

ステップ501〜507は、図13に示したステップ401〜407と同様の処理である。   Steps 501 to 507 are the same processes as steps 401 to 407 shown in FIG.

ステップ505において操作スイッチ27がONとされた場合、MPU19は、センサユニット117の検出軸をシフトさせる(ステップ508)。つまり、本体10が閉じられている操作形態では、加速度センサユニット116によるX軸方向の加速度の検出には、X’軸方向の加速度センサが用いられたが、本体10が開いた操作形態では、その検出には、Z’軸方向の加速度センサが用いられる。また、本体10が閉じられている操作形態では、角速度センサユニット115によるX軸周りピッチ方向の角速度の検出には、X’軸周りの角速度センサが用いられたが、本体10が開いた操作形態では、その検出にはZ’軸周りの角速度センサが用いられる。このように検出軸がシフトされることにより、ユーザは、図17(B)に示したように本体10を開いた状態で、本体10の姿勢をほとんど意識することなくポインティング操作をすることができる(ステップ509)。   When the operation switch 27 is turned on in step 505, the MPU 19 shifts the detection axis of the sensor unit 117 (step 508). That is, in the operation mode in which the main body 10 is closed, the acceleration sensor unit 116 uses the acceleration sensor in the X′-axis direction to detect the acceleration in the X-axis direction. However, in the operation mode in which the main body 10 is opened, For the detection, an acceleration sensor in the Z′-axis direction is used. In the operation mode in which the main body 10 is closed, the angular velocity sensor around the X ′ axis is used for detecting the angular velocity in the pitch direction around the X axis by the angular velocity sensor unit 115, but the operation mode in which the main body 10 is opened is used. Then, an angular velocity sensor around the Z ′ axis is used for the detection. By shifting the detection axis in this way, the user can perform a pointing operation with the body 10 opened as shown in FIG. 17B with little awareness of the posture of the body 10. (Step 509).

ステップ509〜512は、図13に示したステップ409〜411と同様の処理である。ステップ509では、Z’軸及びY’軸を検出軸として、図9に示すステップ101〜104の処理が実行される。すなわち、Z’軸周りの角速度がピッチ方向の角速度とされ、Z’軸方向の加速度が画面3上での左右方向の加速度として処理される。   Steps 509 to 512 are the same processes as steps 409 to 411 shown in FIG. In step 509, the processing of steps 101 to 104 shown in FIG. 9 is executed using the Z ′ axis and the Y ′ axis as detection axes. That is, the angular velocity around the Z ′ axis is set as the angular velocity in the pitch direction, and the acceleration in the Z ′ axis direction is processed as the acceleration in the left-right direction on the screen 3.

ステップ513において、MPU19は、図17(A)に示したように本体10が閉じられた状態が検出された場合(ステップ513のYES)、センサユニット117の検出軸を元に戻すようにシフトさせる(ステップ514)。その後、ステップ503に戻る。   In step 513, when the MPU 19 detects that the main body 10 is closed as shown in FIG. 17A (YES in step 513), the MPU 19 shifts the detection axis of the sensor unit 117 back to the original state. (Step 514). Thereafter, the process returns to step 503.

図16に示した処理を主に制御装置40が実行してもよい。この場合、ステップ501、504、513において、入力デバイス201が形態情報を制御装置40に送信すればよい。また、ステップ505、512において、入力デバイス201の操作スイッチのON/OFFの情報を制御装置40に送信すればよい。   The control device 40 may mainly execute the process shown in FIG. In this case, in steps 501, 504, and 513, the input device 201 may transmit the form information to the control device 40. In steps 505 and 512, information on ON / OFF of the operation switch of the input device 201 may be transmitted to the control device 40.

図18(A)は、本発明の他の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。図18(B)は、その入力デバイスの他の操作形態を示す平面図である。   FIG. 18A is a plan view showing one operation mode of an input device according to another embodiment of the present invention. FIG. 18B is a plan view showing another operation mode of the input device.

入力デバイス251は、典型的には、TV、その他のAV(Audio Visual)機器のリモートコントローラに用いられる。入力デバイス251の電気的な構成は、例えば図5または図12に示したものでよい。   The input device 251 is typically used for a remote controller of a TV or other AV (Audio Visual) device. The electrical configuration of the input device 251 may be that shown in FIG. 5 or FIG. 12, for example.

入力デバイス251は、操作部114を有する本体210を備える。本体210の第1のボディ231及び第2のボディ232は、ヒンジ部233(図18(A)参照)により開閉可能に接続されている。操作部114のうち、本体10の外面に設けられた操作部114は、決定ボタン111、その他各種のボタン112、113、119、120を含む。ボタン119は、音量調整ボタンであり、ボタン120はTVの放送波のチャンネル選択ボタンである。   The input device 251 includes a main body 210 having an operation unit 114. The first body 231 and the second body 232 of the main body 210 are connected by a hinge portion 233 (see FIG. 18A) so as to be opened and closed. Among the operation units 114, the operation unit 114 provided on the outer surface of the main body 10 includes a determination button 111 and various other buttons 112, 113, 119, and 120. The button 119 is a volume adjustment button, and the button 120 is a TV broadcast wave channel selection button.

図18(B)に示すように、操作部114のうち本体10の内面に設けられた操作部114は、複数の操作キー134を含む。操作キー134は、図18(A)に示したような、本体10の外面に設けられた各種のボタン111〜113、119、120に比べ、使用頻度が低い操作キーである。複数の操作キー134には、典型的には、録画再生機器を操作するための操作キーが含まれる。   As shown in FIG. 18B, the operation unit 114 provided on the inner surface of the main body 10 among the operation units 114 includes a plurality of operation keys 134. The operation key 134 is an operation key that is less frequently used than the various buttons 111 to 113, 119, and 120 provided on the outer surface of the main body 10 as illustrated in FIG. The plurality of operation keys 134 typically include operation keys for operating the recording / playback device.

第1のボディ231に内蔵されたセンサユニット17は、図2、図3、図6等に示したセンサユニット17と同じものでよい。センサユニット17は、図2及び図3で示した入力デバイス1と同様な配置で、本体210内に配置されている。すなわち、図8で説明したように、ユーザが入力デバイス251を基本姿勢で握ったときに、加速度センサユニット16のX’−Y’軸の検出面が、実質的に画面3に沿うように、センサユニット17が本体210内に配置されている。また、センサユニット17の、X’軸方向の加速度センサ161が検出する加速度の向きであるX’軸方向に、ヒンジ部233のヒンジ軸が沿うように、センサユニット17は本体210内に配置されている。   The sensor unit 17 incorporated in the first body 231 may be the same as the sensor unit 17 shown in FIG. 2, FIG. 3, FIG. The sensor unit 17 is arranged in the main body 210 in the same arrangement as the input device 1 shown in FIGS. That is, as described in FIG. 8, when the user grasps the input device 251 in the basic posture, the detection surface of the acceleration sensor unit 16 along the X′-Y ′ axis is substantially along the screen 3. The sensor unit 17 is disposed in the main body 210. In addition, the sensor unit 17 is disposed in the main body 210 so that the hinge axis of the hinge portion 233 is along the X′-axis direction, which is the direction of acceleration detected by the acceleration sensor 161 in the X′-axis direction of the sensor unit 17. ing.

ユーザは、このように構成された入力デバイス251を用いて、TV(またはその他のAV機器)、PC等に、ポインティング操作及びその他各種の入力操作を行うことができる。入力デバイス251は、例えば図11または図13に示した処理を実行することができる。   Using the input device 251 configured in this manner, the user can perform a pointing operation and other various input operations on a TV (or other AV device), a PC, and the like. The input device 251 can execute the processing shown in FIG. 11 or FIG. 13, for example.

図19(A)は、本発明のさらに別の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。図19(B)は、その入力デバイスの他の操作形態を示す平面図である。   FIG. 19A is a plan view showing one operation mode of the input device according to still another embodiment of the present invention. FIG. 19B is a plan view showing another operation mode of the input device.

入力デバイス301は、図18で示した入力デバイス251と同様、典型的には、TV、その他のAV(Audio Visual)機器、PCのリモートコントローラに用いられる。入力デバイス301の電気的な構成は、例えば図5、図12及び図15に示した構成のうちいずれか1つのものでよい。   Similar to the input device 251 shown in FIG. 18, the input device 301 is typically used for a TV, other AV (Audio Visual) equipment, and a remote controller of a PC. The electrical configuration of the input device 301 may be any one of the configurations shown in FIGS. 5, 12, and 15, for example.

本体310は、各種のボタン311〜313、316、315を含む操作部314を外面に有しており、また、内面に複数の操作キー334を有する。複数の操作キー334は、典型的には文字入力用のキーボードの配列及び機能を有するが、その配列及び機能に限られない。図19(B)に示すように、本体310は、スライド式で第1のボディ331及び第2のボディ332が開閉するように構成され、その開閉操作により、複数の操作キーが露出したり収納されたりする。   The main body 310 has an operation unit 314 including various buttons 311 to 313, 316, and 315 on the outer surface, and a plurality of operation keys 334 on the inner surface. The plurality of operation keys 334 typically have a keyboard arrangement and functions for character input, but are not limited to these arrangements and functions. As shown in FIG. 19B, the main body 310 is configured to be slidable so that the first body 331 and the second body 332 are opened and closed, and a plurality of operation keys are exposed or stored by the opening and closing operation. Or

本体310には、上述のセンサユニット17または117が内蔵されている。また、X’軸方向の加速度センサ161が検出する加速度の向きであるX’軸方向に、第1のボディ331及び第2のボディ332が相対的にスライドするように、センサユニット17または117は本体310内に配置されている。   The main body 310 incorporates the sensor unit 17 or 117 described above. In addition, the sensor unit 17 or 117 is arranged so that the first body 331 and the second body 332 slide relative to each other in the X′-axis direction, which is the direction of acceleration detected by the acceleration sensor 161 in the X′-axis direction. It is arranged in the main body 310.

このように構成された入力デバイス301は、図11、図13及び図16で示したフローチャートのうちいずれか1つの処理を実行することができる。   The input device 301 configured as described above can execute any one of the processes shown in the flowcharts of FIGS. 11, 13, and 16.

図20(A)は、本発明のさらに別の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。図20(B)は、その入力デバイスの他の操作形態を示す平面図である。   FIG. 20A is a plan view showing one operation mode of the input device according to still another embodiment of the present invention. FIG. 20B is a plan view showing another operation mode of the input device.

入力デバイス401は、図18及び図19で示した入力デバイス251及び301と同様、典型的には、TV、その他のAV(Audio Visual)機器、PCのリモートコントローラに用いられる。   As with the input devices 251 and 301 shown in FIGS. 18 and 19, the input device 401 is typically used for a TV, other AV (Audio Visual) equipment, and a PC remote controller.

図21は、入力デバイス401の電気的な構成を示すブロック図である。入力デバイス401は、タッチパネル型のディスプレイ420を有する本体410を備える。ディスプレイ420は、ディスプレイ制御部423により制御される。また、本体410には、決定ボタン411、その他の各種のボタン413、415、416等を含む操作部414が設けられている。   FIG. 21 is a block diagram showing an electrical configuration of the input device 401. The input device 401 includes a main body 410 having a touch panel type display 420. The display 420 is controlled by the display control unit 423. The main body 410 is provided with an operation unit 414 including an enter button 411 and other various buttons 413, 415, 416, and the like.

ディスプレイ420は、典型的には、図20(B)に示すように、タッチパネル画面421として、文字入力用のキーボードの配列及び機能を有する操作キーを表示する。図20(B)に示す操作形態では、ユーザは、ディスプレイ420の長手方向を横向きにして操作する。   As shown in FIG. 20B, the display 420 typically displays an operation key having a keyboard layout and functions for character input as a touch panel screen 421. In the operation mode shown in FIG. 20B, the user operates the display 420 with the longitudinal direction of the display 420 facing sideways.

本体410には、上述のセンサユニット17が内蔵されている。ユーザが本体410を基本姿勢で握ったときに、X’及びY’軸方向の加速度の検出面が、実質的に画面3に沿うように、センサユニット17が本体410内に配置されている。   The main body 410 incorporates the sensor unit 17 described above. The sensor unit 17 is disposed in the main body 410 so that the detection surface of acceleration in the X ′ and Y ′ axis directions substantially follows the screen 3 when the user grasps the main body 410 in the basic posture.

ディスプレイ420にタッチパネル画面421によるタッチ操作による入力操作が可能なタッチパネルモードを起動し、及び、そのタッチパネルモードを終了(解除)するためのトリガーとして、例えば以下の1)〜4)の手段が考えられる。
1)ユーザがディスプレイ420にタッチすることによりタッチパネルモードが起動する。また、タッチパネル画面421に表示される、終了するためのキーをユーザがタッチすることで、タッチパネルモードが終了する。あるいは、タッチパネルモードを終了するための、操作ボタンが本体410に設けられていてもよい。
2)操作部414のうちのいずれかに、タッチパネルモードのON/OFFを操作するためのボタンが設けられる。ユーザがそのスイッチをONとすると、タッチパネルモードが起動し、ユーザがそのスイッチをOFFとすると、タッチパネルモードが終了する。
3)ユーザが本体410を所定回数振ることにより、タッチパネルモードが起動し、または終了する。ユーザが本体410を振ると、加速度センサユニット16または116により、それに応じた加速度が検出されるので、MPU19はそのときタッチパネルモードを起動させ、または終了する。
4)図20(A)に示した本体410の姿勢から、図20(B)に示した本体410の姿勢になるように、ユーザが本体410を持ち変えたときに、タッチパネルモードが起動する。また、図20(B)に示した本体410の姿勢から、図20(A)に示した本体410の姿勢になるように、ユーザが本体410を持ち変えたときに、タッチパネルモードが終了する。これは、センサユニット17の、X’軸方向の加速度センサにより検出される重力方向がMPU19により監視されることで実現される。例えば、ポインティング操作ではなく、入力デバイス401が実質的に静止状態に近い状態で、図20(A)に示す操作形態でユーザが入力デバイス401を操作する場合、X’軸方向は、重力方向とは直交するので、X’軸方向の加速度は比較的小さい。これに対し、ポインティング操作ではなく、入力デバイス401が実質的に静止状態に近い状態で、図20(B)に示す操作形態でユーザが入力デバイス401を操作する場合、X’軸方向は重力方向と実質的に一致しする。したがって、入力デバイス401が実質的に静止状態に近い状態では、図20(B)に示す操作形態では、図20(B)に示す操作形態よりも、X’軸方向の加速度が大きくなる。これにより、操作形態の切り替えが検出可能となる。
For example, the following means 1) to 4) can be considered as triggers for starting a touch panel mode in which an input operation by a touch operation on the touch panel screen 421 can be performed on the display 420 and ending (releasing) the touch panel mode. .
1) When the user touches the display 420, the touch panel mode is activated. In addition, when the user touches a key for ending displayed on the touch panel screen 421, the touch panel mode ends. Alternatively, an operation button for ending the touch panel mode may be provided on the main body 410.
2) A button for operating the touch panel mode ON / OFF is provided on any of the operation units 414. When the user turns on the switch, the touch panel mode is activated, and when the user turns off the switch, the touch panel mode ends.
3) When the user shakes the main body 410 a predetermined number of times, the touch panel mode starts or ends. When the user shakes the main body 410, the acceleration sensor unit 16 or 116 detects the acceleration corresponding thereto, so that the MPU 19 activates or ends the touch panel mode at that time.
4) When the user changes the main body 410 from the posture of the main body 410 shown in FIG. 20A to the posture of the main body 410 shown in FIG. 20B, the touch panel mode is activated. When the user changes the main body 410 so that the main body 410 illustrated in FIG. 20A changes from the main body 410 illustrated in FIG. 20B to the main body 410, the touch panel mode ends. This is realized by the MPU 19 monitoring the direction of gravity detected by the acceleration sensor in the X′-axis direction of the sensor unit 17. For example, when the user operates the input device 401 in the operation mode illustrated in FIG. 20A in a state where the input device 401 is substantially close to a stationary state instead of the pointing operation, the X′-axis direction is the gravity direction. Are orthogonal, the acceleration in the X′-axis direction is relatively small. On the other hand, when the user operates the input device 401 in the operation mode shown in FIG. 20B in a state where the input device 401 is substantially close to a stationary state instead of the pointing operation, the X′-axis direction is the gravitational direction. Substantially matches. Therefore, when the input device 401 is substantially close to a stationary state, the acceleration in the X′-axis direction is larger in the operation mode shown in FIG. 20B than in the operation mode shown in FIG. Thereby, it is possible to detect the switching of the operation mode.

上記1)〜4)の場合、少なくともMPU19、または、少なくともMPU19及びX’軸方向の加速度センサが、タッチパネルモードを起動及び終了のトリガーを検出する検出手段として機能する。   In the cases 1) to 4), at least the MPU 19 or at least the MPU 19 and the acceleration sensor in the X′-axis direction function as detection means for detecting triggers for starting and ending the touch panel mode.

図22は、入力デバイス401の、ユーザにより操作形態が変えられるときの動作を示すフローチャートである。   FIG. 22 is a flowchart showing the operation of the input device 401 when the operation mode is changed by the user.

図22に示した処理と図11に示した処理とで主に異なる点は、ステップ601で、タッチパネルモードを起動させるか否かの判定が実行されること、及び、ステップ604で、タッチパネルモードを終了するか否かの判定が実行されることである。タッチパネル画面421によるユーザの入力操作があった場合(ステップ606のYES)、MPU19は、その入力操作に応じたコマンドを生成する(ステップ607)。   The main difference between the process shown in FIG. 22 and the process shown in FIG. 11 is that in step 601, it is determined whether or not to activate the touch panel mode, and in step 604, the touch panel mode is changed. The determination of whether or not to end is executed. When there is a user input operation on the touch panel screen 421 (YES in Step 606), the MPU 19 generates a command corresponding to the input operation (Step 607).

以上のようなタッチパネル型のディスプレイ420を備える入力デバイス401が、図152等で示した操作スイッチ27を備え、図13で示した処理と同様の処理を実行してもよい。あるいは、入力デバイス401が、図15等で示したセンサユニット117を備え、図16で示した処理と同様の処理を実行してもよい。   The input device 401 including the touch panel display 420 as described above may include the operation switch 27 illustrated in FIG. 152 and the like, and execute the same processing as the processing illustrated in FIG. Alternatively, the input device 401 may include the sensor unit 117 illustrated in FIG. 15 and the like, and execute the same processing as the processing illustrated in FIG.

上述の4)で説明したように、X’軸方向の加速度の変化により、姿勢変化が検出され、この検出をトリガーとして操作形態が切り替えられる。このことは、上述した入力デバイス1(図2及び図3参照)、101、151、201、301(図19参照)にも適用可能である。   As described in 4) above, a change in posture is detected by a change in acceleration in the X′-axis direction, and the operation mode is switched using this detection as a trigger. This is also applicable to the above-described input device 1 (see FIGS. 2 and 3), 101, 151, 201, and 301 (see FIG. 19).

図22に示した処理を主に制御装置40が実行してもよい。この場合、ステップ601、604において、入力デバイス401が、現在タッチパネルモードの操作形態にあるか否かの形態情報を制御装置40に送信すればよい。   The control device 40 may mainly execute the process shown in FIG. In this case, in steps 601 and 604, the input device 401 may transmit to the control device 40 form information indicating whether or not the input device 401 is currently in the touch panel mode operation form.

図23は、本発明のさらに別の実施の形態に係る入力デバイスを示す平面図である。   FIG. 23 is a plan view showing an input device according to still another embodiment of the present invention.

この入力デバイス451は、第1の面461及び第2の面462を有する本体460を備える。本体460の第1の面461には、決定ボタン471、その他のボタン472等が設けられている。本体460の第2の面462にも、各種のボタンまたは操作キー474が設けられている。また、本体460には、センサユニット17が内蔵されている。   The input device 451 includes a main body 460 having a first surface 461 and a second surface 462. A determination button 471, other buttons 472, and the like are provided on the first surface 461 of the main body 460. Various buttons or operation keys 474 are also provided on the second surface 462 of the main body 460. In addition, the sensor unit 17 is built in the main body 460.

センサユニット17は、図6に示したセンサユニット17と同様のものでよい。X’軸及びY’軸を含むX’−Y’検出面が、第1の面461及び第2の面462の両方に対して直交するように、センサユニット17は本体460内に配置されている。ユーザは、そのX’−Y’検出面が、画面3に実質的に沿うように、入力デバイス451の本体460を握ってポインティング操作する。   The sensor unit 17 may be the same as the sensor unit 17 shown in FIG. The sensor unit 17 is disposed in the main body 460 so that the X′-Y ′ detection surface including the X ′ axis and the Y ′ axis is orthogonal to both the first surface 461 and the second surface 462. Yes. The user performs a pointing operation by grasping the main body 460 of the input device 451 so that the X′-Y ′ detection surface is substantially along the screen 3.

図24(A)は、一の操作形態でユーザにより入力デバイス451が操作される場合の、画面3に対するセンサユニット17の姿勢を示す図である。図24(B)は、他の操作形態でユーザにより入力デバイス451が操作される場合の、画面3に対するセンサユニット17の姿勢を示す図である。   FIG. 24A is a diagram illustrating the posture of the sensor unit 17 with respect to the screen 3 when the input device 451 is operated by the user in one operation mode. FIG. 24B is a diagram illustrating the posture of the sensor unit 17 with respect to the screen 3 when the input device 451 is operated by the user in another operation mode.

24(B)は、図23に示した入力デバイス451の姿勢から、ユーザがZ軸を中心に本体460をほぼ90°回転させた状態を示している。本体460がこのように90°回転することで、ユーザは、例えば第2の面462を上に向けた状態で操作キー474を操作することができる。操作キー474等は、例えば文字、数字、その他の記号を入力するためのボタンであるが、これに限られない。   FIG. 24B shows a state in which the user has rotated the main body 460 about 90 ° around the Z axis from the posture of the input device 451 shown in FIG. By rotating the main body 460 by 90 ° in this manner, the user can operate the operation key 474 with the second surface 462 facing upward, for example. The operation keys 474 and the like are buttons for inputting characters, numbers, and other symbols, for example, but are not limited thereto.

本体460の姿勢変化は、ユーザにより操作されるスイッチ、または、上記入力デバイス401における、4)で述べたようなY’軸での重力加速度の変化により検出されればよい。   The posture change of the main body 460 may be detected by a switch operated by a user or a change in gravity acceleration on the Y ′ axis as described in 4) in the input device 401.

このように、本体460が90°回転することで、X’軸及びY’軸の検出軸が互いに入れ替わる。つまり、図20(B)に示す姿勢では、X’軸方向が画面3上の上下方向(Y軸方向)に対応し、Y’軸方向が画面3上の左右方向(X軸方向)に対応するような移動コマンドが生成されればよい。   As described above, when the main body 460 is rotated by 90 °, the detection axes of the X ′ axis and the Y ′ axis are interchanged. That is, in the posture shown in FIG. 20B, the X′-axis direction corresponds to the vertical direction (Y-axis direction) on the screen 3, and the Y′-axis direction corresponds to the horizontal direction (X-axis direction) on the screen 3. It is only necessary to generate such a movement command.

MPU19の処理としては、ユーザが上記スイッチを操作した場合、または、重力加速度の変化のうちいずれか一方により本体460の姿勢変化が検出された場合、MPU19は、移動コマンドの送信を停止し、センサユニット17の検出軸をシフトする。そして、例えば操作スイッチ27(図12及び図15等参照)がONとされた場合に、MPU19は、シフトされた後の検出軸を用いて本体460の加速度及び角速度を取得し、それらに基づき生成された移動コマンドを、制御装置40に送信すればよい。   As a process of the MPU 19, when the user operates the above switch or when a change in posture of the main body 460 is detected by any one of changes in gravitational acceleration, the MPU 19 stops transmitting the movement command, and the sensor The detection axis of the unit 17 is shifted. For example, when the operation switch 27 (see FIGS. 12 and 15 and the like) is turned ON, the MPU 19 acquires the acceleration and angular velocity of the main body 460 using the detection axis after the shift, and generates based on them. The moved command may be transmitted to the control device 40.

以降では、図9のステップ103、図10のステップ205における速度値(Vx、Vy)の算出方法について説明する。図25は、その入力デバイス1(図10においては制御装置40)の動作を示すフローチャートである。図26は、この速度値の算出方法の基本的な考え方を説明するための図である。 Hereinafter, a method of calculating the velocity values (V x , V y ) in step 103 in FIG. 9 and step 205 in FIG. 10 will be described. FIG. 25 is a flowchart showing the operation of the input device 1 (the control device 40 in FIG. 10). FIG. 26 is a diagram for explaining the basic concept of this speed value calculation method.

図26では、入力デバイス1を例えば左右方向(ヨー方向)へ振って操作するユーザを上から見た図である。図26に示すように、ユーザが自然に入力デバイス1を操作する場合、手首の回転、肘の回転及び腕の付け根の回転のうち少なくとも1つによって操作する。したがって、入力デバイス1の動きと、この手首、肘及び腕の付け根の回転とを比較すると、以下に示す1.2.の関係があることが分かる。   FIG. 26 is a view of the user who operates the input device 1 while swinging the input device 1 in the left-right direction (yaw direction), for example. As shown in FIG. 26, when the user operates the input device 1 naturally, the input device 1 is operated by at least one of wrist rotation, elbow rotation, and arm base rotation. Therefore, when comparing the movement of the input device 1 with the rotation of the wrist, elbow and arm base, the following 1.2. It can be seen that there is a relationship.

1.入力デバイス1の加速度センサユニット16が配置された部分(以下、先端部)のY軸周りの角速度値ωψは、手首の回転による角速度、肘の回転による角速度、及び腕の付け根の回転による角速度の合成値である。
2.入力デバイス1の先端部のヨー方向の速度値Vxは、手首、肘、及び腕の付け根の角速度に、それぞれ、手首と先端部との距離、肘と先端部との距離、腕の付け根と先端部との距離を乗じた値の合成値である。
1. The angular velocity value ω ψ around the Y-axis of the portion where the acceleration sensor unit 16 of the input device 1 is disposed (hereinafter referred to as the tip) is the angular velocity due to the wrist rotation, the angular velocity due to the elbow rotation, and the angular velocity due to the rotation of the base of the arm. Is a composite value of
2. Yaw direction of the velocity values V x of the tip of the input device 1, wrists, elbows, and the base of the angular velocity of the arm, respectively, the distance between the wrist and the distal end portion, the distance between the elbow and the tip portion, and the base of the arm This is a composite value obtained by multiplying the distance from the tip.

ここで、微小時間での入力デバイス1の回転運動について、入力デバイス1は、Y軸に平行であり、時間ごとに位置が変化する中心軸(第1の中心軸、または第2の中心軸)を中心に回転していると考えることができる。この時間ごとに位置が変化する中心軸と、入力デバイス1の先端部との距離を、Y軸周りの回転半径Rψ(t)(第1の回転半径、または第2の回転半径)とすると、入力デバイス1の先端部の速度値Vxと、角速度値ωψとの関係は、以下の式(3)で表される。すなわち、ヨー方向の速度値Vxは、Y軸周りの角速度値ωψに、中心軸と先端部との距離Rψ(t)を乗じた値となる。なお、本実施の形態では、センサユニット17の回路基板25上に、加速度センサユニット16及び角速度センサユニット15が一体的に配置されている。したがって、回転半径R(t)は中心軸からセンサユニット17までの距離となる。しかし、加速度センサユニット16と角速度センサユニット15とが、本体10内で離れて配置される場合には、上記したように、中心軸から加速度センサユニット16までの距離が回転半径R(t)となる。 Here, regarding the rotational movement of the input device 1 in a minute time, the input device 1 is parallel to the Y axis, and a central axis (first central axis or second central axis) whose position changes with time. Can be thought of as rotating around. When the distance between the central axis whose position changes with time and the tip of the input device 1 is the rotation radius R ψ (t) around the Y axis (first rotation radius or second rotation radius) The relationship between the velocity value V x at the tip of the input device 1 and the angular velocity value ω ψ is expressed by the following equation (3). That is, the velocity value V x in the yaw direction is a value obtained by multiplying the angular velocity value ω ψ about the Y axis by the distance R ψ (t) between the central axis and the tip. In the present embodiment, the acceleration sensor unit 16 and the angular velocity sensor unit 15 are integrally disposed on the circuit board 25 of the sensor unit 17. Accordingly, the rotation radius R (t) is the distance from the central axis to the sensor unit 17. However, when the acceleration sensor unit 16 and the angular velocity sensor unit 15 are arranged apart from each other in the main body 10, as described above, the distance from the central axis to the acceleration sensor unit 16 is the rotation radius R (t). Become.

Vx=Rψ(t)・ωψ・・・(3)。 V x = R ψ (t) · ω ψ (3).

式(3)に示すように、入力デバイス1の先端部の速度値と、角速度値との関係は、比例定数をR(t)とした比例関係、つまり、相関関係にある。   As shown in Expression (3), the relationship between the velocity value at the tip of the input device 1 and the angular velocity value is a proportional relationship, that is, a correlation with a proportional constant R (t).

上記式(3)を変形して(4)式を得る。
ψ(t)=Vxψ・・・(4)。
Equation (3) is modified to obtain equation (4).
R ψ (t) = V x / ω ψ (4).

式(4)の右辺は、速度のディメンジョンである。この式(4)の右辺に表されている速度値と角速度値とがそれぞれ微分され、加速度、あるいは加速度の時間変化率のディメンジョンとされても相関関係は失われない。同様に、速度値と角速度値とがそれぞれ積分され、変位のディメンジョンとされても相関関係は失われない。   The right side of Equation (4) is the speed dimension. The correlation is not lost even if the velocity value and the angular velocity value represented on the right side of the equation (4) are differentiated to obtain a dimension of acceleration or a time change rate of acceleration. Similarly, the correlation is not lost even if the velocity value and the angular velocity value are respectively integrated to obtain a displacement dimension.

したがって、式(4)の右辺に表されている速度及び角速度をそれぞれ変位、加速度、加速度の時間変化率のディメンジョンとして、以下の式(5)、(6)、(7)が得られる。   Therefore, the following equations (5), (6), and (7) are obtained by using the velocity and angular velocity represented on the right side of equation (4) as the dimensions of displacement, acceleration, and acceleration time change rate, respectively.

ψ(t)=x/ψ・・・(5)
ψ(t)=ax/Δωψ・・・(6)
ψ(t)=Δax/Δ(Δωψ)・・・(7)。
R ψ (t) = x / ψ (5)
R ψ (t) = a x / Δω ψ (6)
R ψ (t) = Δa x / Δ (Δω ψ ) (7).

上記式(4)、(5)、(6)、(7)のうち、例えば式(6)に注目すると、加速度値axと、角速度値Δωψが既知であれば、回転半径Rψ(t)が求められることが分かる。上述のように、第1の加速度センサ161は、ヨー方向の加速度値axを検出し、第1の角速度センサ151は、Y軸の周りの角速度値ωψを検出する。したがって、Y軸周りの角速度値ωψが微分され、Y軸周りの角加速度値Δωψが算出されれば、Y軸周りの回転半径Rψ(t)が求められる。 Of the above formulas (4), (5), (6), and (7), for example, paying attention to formula (6), if the acceleration value a x and the angular velocity value Δω ψ are known, the radius of rotation R ψ ( It can be seen that t) is required. As described above, the first acceleration sensor 161 detects an acceleration value a x in the yaw direction, the first angular velocity sensor 151 detects an angular velocity value omega [psi about the Y axis. Therefore, if the angular velocity value ω ψ around the Y axis is differentiated and the angular acceleration value Δω ψ around the Y axis is calculated, the turning radius R ψ (t) around the Y axis can be obtained.

Y軸周りの回転半径Rψ(t)が既知であれば、この回転半径Rψ(t)に、第1の角速度センサ151によって検出されたY軸の周りの角速度値ωψを乗じることで、入力デバイス1のX軸方向の速度値Vxが求められる(式(3)参照)。すなわち、ユーザの回転の操作量そのものがX軸方向の線速度値に変換され、ユーザの直感に合致した速度値となる。したがって、ポインタ2の動きが入力デバイス1の動きに対して自然な動きとなるため、ユーザによる入力デバイスの操作性が向上する。 If the rotation radius R ψ (t) around the Y axis is known, the rotation radius R ψ (t) is multiplied by the angular velocity value ω ψ around the Y axis detected by the first angular velocity sensor 151. Then, the velocity value V x in the X-axis direction of the input device 1 is obtained (see formula (3)). That is, the operation amount itself of the user's rotation is converted into a linear velocity value in the X-axis direction and becomes a velocity value that matches the user's intuition. Therefore, since the movement of the pointer 2 becomes a natural movement with respect to the movement of the input device 1, the operability of the input device by the user is improved.

この速度値の算出方法については、ユーザが入力デバイス1を上下方向(ピッチ方向)へ振って操作する場合にも適用することができる。   This speed value calculation method can also be applied when the user operates the input device 1 by swinging it in the vertical direction (pitch direction).

図25では、式(6)が用いられる例について説明する。図25を参照して、入力デバイス1のMPU19は、ステップ101で取得した角速度値(ωψ、ωθ)を微分演算することで、角加速度値(Δωψ、Δωθ)を算出する(ステップ701)。 In FIG. 25, an example in which Expression (6) is used will be described. Referring to FIG. 25, MPU 19 of input device 1 calculates angular acceleration values (Δω ψ , Δω θ ) by differentiating the angular velocity values (ω ψ , ω θ ) acquired in step 101 (step 701).

MPU19は、ステップ102で取得した加速度値(ax、ay)と、角加速度値(Δωψ、Δωθ)とを用いて、式(6)、(8)により、それぞれY軸周り及びX軸周りの回転半径(Rψ(t)、Rθ(t))を算出する(ステップ702)。
ψ(t)=ax/Δωψ・・・(6)
θ(t)=ay/Δωθ・・・(8)。
The MPU 19 uses the acceleration values (a x , a y ) and the angular acceleration values (Δω ψ , Δω θ ) acquired in step 102, respectively, around the Y axis and X according to equations (6) and (8), respectively. A rotation radius (R ψ (t), R θ (t)) around the axis is calculated (step 702).
R ψ (t) = a x / Δω ψ (6)
R θ (t) = a y / Δω θ (8).

回転半径が算出されれば、式(3)、(9)により、速度値(Vx、Vy)が算出される(ステップ703)。 When the radius of rotation is calculated, the velocity values (V x , V y ) are calculated using equations (3) and (9) (step 703).

Vx=Rψ(t)・ωψ・・・(3)
Vy=Rθ(t)・ωθ・・・(9)
このように、ユーザによる入力デバイス1の回転の操作量そのものがX軸及びY軸方向の線速度値に変換され、ユーザの直感に合致した速度値となる。
V x = R ψ (t) · ω ψ (3)
V y = R θ (t) · ω θ (9)
As described above, the operation amount of the rotation of the input device 1 by the user is converted into linear velocity values in the X-axis and Y-axis directions, and the velocity value matches the user's intuition.

また、加速度センサユニット16で検出された加速度値(ax、ay)が、そのまま用いられることにより、計算量が少なくなり、入力デバイス1の消費電力を減らすことができる。 Further, since the acceleration values (a x , a y ) detected by the acceleration sensor unit 16 are used as they are, the calculation amount is reduced, and the power consumption of the input device 1 can be reduced.

MPU19は、加速度センサユニット16から所定のクロックごとに(ax、ay)を取得し、例えば、それに同期するように速度値(Vx、Vy)を算出すればよい。あるいは、MPU19は、複数の加速度値(ax、ay)のサンプルごとに、速度値(Vx、Vy)を1回算出してもよい。 The MPU 19 may acquire (a x , a y ) for each predetermined clock from the acceleration sensor unit 16 and calculate velocity values (V x , V y ) so as to synchronize with it. Alternatively, the MPU 19 may calculate the velocity value (V x , V y ) once for each sample of the plurality of acceleration values (a x , a y ).

次に、図25と同様に、回転半径を利用して速度値(Vx、Vy)を算出する他の実施形態について説明する。図27は、その入力デバイス1の動作を示すフローチャートである。図27では、上記式(7)が用いられる例について説明する。 Next, as in FIG. 25, another embodiment in which the velocity values (V x , V y ) are calculated using the rotation radius will be described. FIG. 27 is a flowchart showing the operation of the input device 1. In FIG. 27, an example in which the above equation (7) is used will be described.

図27を参照して、入力デバイス1のMPU19は、取得した加速度値(ax、ay)の微分演算を行う。これにより、加速度の時間変化率(Δax、Δay)が算出される(ステップ801)。同様に、MPU19は、取得した角加速度値(ωψ、ωθ)の2階の微分演算を行うことで、角加速度の時間変化率(Δ(Δωψ))、Δ(Δωθ))を算出する(ステップ802)。 Referring to FIG. 27, the MPU 19 of the input device 1 performs a differentiation operation on the acquired acceleration values (a x , a y ). Thereby, the time change rate (Δa x , Δa y ) of acceleration is calculated (step 801). Similarly, the MPU 19 performs a second-order differential operation on the acquired angular acceleration values (ω ψ , ω θ ) to obtain the angular acceleration time change rates (Δ (Δω ψ )) and Δ (Δω θ )). Calculate (step 802).

角速度の時間変化率が算出されると、MPU19は、Y軸周りの角加速度の時間変化率の絶対値|Δ(Δωθ)|が、閾値th1を超えるか否かを判定する(ステップ803)。上記|Δ(Δωθ)|が閾値th1を超える場合には、MPU19は、X軸方向の加速度の時間変化率Δaxを、Y軸周りの角速度の時間変化率Δ(Δωθ)で除することで、Y軸周りの回転半径Rψ(t)を算出する(ステップ804)。すなわち、X軸方向の加速度の時間変化率Δaxと、Y軸周りの角速度の時間変化率Δ(Δωθ)との比を回転半径Rψ(t)として算出する(式(7))。|Δ(Δωθ)|の閾値th1は適宜設定可能である。 When the time rate of change in angular velocity is calculated, the MPU 19 determines whether or not the absolute value | Δ (Δω θ ) | of the time rate of change in angular acceleration around the Y axis exceeds a threshold th1 (step 803). . The | Δ (Δω θ) | when exceeding the threshold value th1, the MPU 19 is the time rate of change .DELTA.a x of the acceleration in the X-axis direction, divided by the time rate of change of angular velocity about the Y axis Δ (Δω θ) Thus, the rotation radius R ψ (t) around the Y axis is calculated (step 804). That is, the time rate of change .DELTA.a x of the acceleration in the X-axis direction, calculates the ratio between the time rate of change of the angular velocity around the Y-axis delta ([Delta] [omega theta) as the rotation radius R [psi (t) (Equation (7)). The threshold value th1 of | Δ (Δω θ ) | can be set as appropriate.

この回転半径Rψ(t)の信号は、例えばローパスフィルタに通される(ステップ805)。ローパスフィルタで高周波数域のノイズが除去された回転半径Rψ(t)の情報はメモリに記憶される(ステップ806)。このメモリには、回転半径Rψ(t)の信号が所定のクロックごとに更新して記憶される。 The signal of the rotation radius R ψ (t) is passed through, for example, a low-pass filter (step 805). Information on the radius of rotation R ψ (t) from which high-frequency noise has been removed by the low-pass filter is stored in the memory (step 806). In this memory, the signal of the rotation radius R ψ (t) is updated and stored every predetermined clock.

入力デバイス1のMPU19は、この回転半径Rψ(t)に、Y軸周りの角速度値ωθを乗じることで、X軸方向の速度値Vxを算出する(ステップ808)。 The MPU 19 of the input device 1 calculates the velocity value V x in the X-axis direction by multiplying the rotation radius R ψ (t) by the angular velocity value ω θ around the Y-axis (step 808).

一方で、MPU19は、上記|Δ(Δωθ)|が、閾値th1以下である場合には、メモリに記憶された回転半径Rψ(t)を読み出す(ステップ807)。この読み出された回転半径Rψ(t)に、Y軸周りの角速度値ωθを乗じることで、X軸方向の速度値Vxを算出する(ステップ808)。 On the other hand, when the above | Δ (Δω θ ) | is equal to or less than the threshold th1, the MPU 19 reads the turning radius R ψ (t) stored in the memory (step 807). The read rotation radius R ψ (t) is multiplied by the angular velocity value ω θ around the Y axis to calculate the velocity value V x in the X axis direction (step 808).

上記ステップ801〜808の処理が行われる理由として、以下の2つの理由がある。   There are the following two reasons why the processes in steps 801 to 808 are performed.

1つは、上記式(7)の回転半径Rψ(t)を求めて、ユーザの直感に合致した線速度を求めるためである。 One is to obtain the linear velocity that matches the user's intuition by obtaining the rotation radius R ψ (t) of the above equation (7).

2つ目は、この速度値(Vx、Vy)が算出される過程において、重力の影響を除去するためである。入力デバイス1が基本姿勢から、ロール方向またはピッチ方向に傾いた場合、重力の影響によって、入力デバイス1の実際の動きとは違った検出信号を出力してしまう。例えば入力デバイス1がピッチ方向に傾いた場合、加速度センサ162からそれぞれ重力加速度の成分値が出力される。したがって、この重力加速度の各成分値の影響を除去しない場合には、ポインタ2の動きがユーザの感覚にそぐわない動きとなってしまう。 The second is to remove the influence of gravity in the process of calculating the velocity values (V x , V y ). When the input device 1 is tilted from the basic posture in the roll direction or the pitch direction, a detection signal different from the actual movement of the input device 1 is output due to the influence of gravity. For example, when the input device 1 is tilted in the pitch direction, the acceleration sensor 162 outputs a gravity acceleration component value. Therefore, when the influence of each component value of the gravitational acceleration is not removed, the movement of the pointer 2 becomes a movement that does not match the user's sense.

図28は、加速度センサユニット16への重力の影響を説明するための図である。図28は、入力デバイス1をZ方向で見た図である。   FIG. 28 is a diagram for explaining the influence of gravity on the acceleration sensor unit 16. FIG. 28 is a diagram of the input device 1 as viewed in the Z direction.

図28(A)では、入力デバイス1が基本姿勢とされ、静止しているとする。このとき、第1の加速度センサ161の出力は実質的に0であり、第2の加速度センサ162の出力は、重力加速度G分の出力とされている。しかし、例えば図28(B)に示すように、入力デバイス1がロール方向に傾いた状態では、第1、第2の加速度センサ161、162は、重力加速度Gのそれぞれの傾き成分の加速度値を検出する。   In FIG. 28A, it is assumed that the input device 1 is in the basic posture and is stationary. At this time, the output of the first acceleration sensor 161 is substantially 0, and the output of the second acceleration sensor 162 is an output corresponding to the gravitational acceleration G. However, as shown in FIG. 28B, for example, when the input device 1 is tilted in the roll direction, the first and second acceleration sensors 161 and 162 indicate the acceleration values of the respective gradient components of the gravitational acceleration G. To detect.

この場合、特に、入力デバイス1が実際にX軸方向には動いていないにも関わらず、第1の加速度センサ161はX軸方向の加速度を検出することになる。この図28(B)に示す状態は、図28(C)のように入力デバイス1が基本姿勢にあるときに、加速度センサユニット16が破線の矢印で示すような慣性力Ix、Iyを受けた状態と等価であり、加速度センサユニット16にとって区別が付かない。その結果、加速度センサユニット16は、矢印で示すような左に斜め下方向の加速度が入力デバイス1に加わったと判断し、入力デバイス1の実際の動きとは違った検出信号を出力する。しかも、重力加速度Gは常に加速度センサユニット16に作用するため、加速度から速度を求めるための加速度の積分値は増大し、ポインタ2を斜め下方に変位させる量は加速度的に増大してしまう。図28(A)から図28(B)に状態が移行した場合、本来、画面3上のポインタ2が動かないようにすることが、ユーザの直感に合った操作と言える。   In this case, in particular, the first acceleration sensor 161 detects the acceleration in the X-axis direction even though the input device 1 does not actually move in the X-axis direction. In the state shown in FIG. 28 (B), when the input device 1 is in the basic posture as shown in FIG. 28 (C), the acceleration sensor unit 16 receives inertial forces Ix and Iy as indicated by broken arrows. This is equivalent to the state and is indistinguishable for the acceleration sensor unit 16. As a result, the acceleration sensor unit 16 determines that the acceleration in the diagonally downward direction to the left as indicated by the arrow is applied to the input device 1 and outputs a detection signal different from the actual movement of the input device 1. Moreover, since the gravitational acceleration G always acts on the acceleration sensor unit 16, the integral value of acceleration for obtaining the speed from the acceleration increases, and the amount of the pointer 2 displaced obliquely increases in an accelerated manner. When the state transitions from FIG. 28A to FIG. 28B, it can be said that the operation that suits the user's intuition is to prevent the pointer 2 on the screen 3 from moving.

図29は、入力デバイス1がピッチ方向に振られたときにおける重力加速度の影響を説明するための図であり、入力デバイス1をX方向で見た図である。   FIG. 29 is a diagram for explaining the influence of gravitational acceleration when the input device 1 is swung in the pitch direction, and is a diagram of the input device 1 viewed in the X direction.

例えば、図29(A)に示すような入力デバイス1の基本姿勢の状態から、図29(B)に示すような、入力デバイス1がピッチ方向で回転して傾いたとき、入力デバイス1が基本姿勢にあるときの第2の加速度センサ162が検出する重力加速度Gが減少する。図29(C)に示すように、入力デバイス1は、上のピッチ方向の慣性力Iと区別が付かない。   For example, when the input device 1 is rotated in the pitch direction and tilted as shown in FIG. 29B from the basic posture state of the input device 1 as shown in FIG. The gravitational acceleration G detected by the second acceleration sensor 162 when in the posture decreases. As shown in FIG. 29C, the input device 1 cannot be distinguished from the inertia force I in the upper pitch direction.

そこで、ユーザの操作による入力デバイス1の移動慣性成分(動きのみ)に着目した加速度値の時間変化率に比べ、その入力デバイス1の動きにより発生する重力加速度の成分値の時間変化率の方が小さいことを利用する。その重力加速度の成分値の時間変化率は、ユーザの操作による移動慣性成分値の時間変化率の1/10のオーダーである。加速度センサユニット16から出力される値は、その両者が合成された値である、すなわち、加速度センサユニット16から出力される信号は、ユーザの操作による移動慣性成分値の時間変化率に、重力加速度の成分値である低周波成分値が重畳された信号となる。   Therefore, the time change rate of the component value of the gravitational acceleration generated by the movement of the input device 1 is higher than the time change rate of the acceleration value paying attention to the movement inertia component (only movement) of the input device 1 by the user's operation. Take advantage of small things. The time change rate of the component value of the gravitational acceleration is on the order of 1/10 of the time change rate of the moving inertia component value by the user's operation. The value output from the acceleration sensor unit 16 is a value obtained by synthesizing both of them. That is, the signal output from the acceleration sensor unit 16 is the gravitational acceleration in the rate of change of the moving inertia component value by the user's operation. This is a signal on which a low-frequency component value that is a component value is superimposed.

したがって、ステップ801では、加速度値が微分演算されることで、加速度の時間変化率が求められ、これにより、重力加速度の成分値の時間変化率が除去される。これにより、入力デバイス1の傾きによる重力加速度の分力の変化が生じる場合であっても、適切に回転半径を求めることができ、この回転半径から適切な速度値を算出することができる。   Therefore, in step 801, the acceleration value is subjected to differential calculation to obtain the time change rate of the acceleration, thereby removing the time change rate of the gravity acceleration component value. Thereby, even if the change in the component force of the gravitational acceleration due to the inclination of the input device 1 occurs, the turning radius can be obtained appropriately, and an appropriate speed value can be calculated from this turning radius.

なお、上記低周波成分値には、重力加速度の成分値のほか、例えば加速度センサユニット16の温度ドリフト、あるいは、DCオフセット値が含まれる場合もある。   The low frequency component value may include, for example, a temperature drift of the acceleration sensor unit 16 or a DC offset value in addition to the gravity acceleration component value.

また、本実施の形態では、式(7)が用いられるので、ステップ802では、角速度値ωθが2階微分され、高周波数域のノイズがその角速度の演算値に乗ってしまう。この|Δ(Δωθ)|が大きい場合問題ないが、小さい場合S/Nが悪化する。S/Nの悪化した|Δ(Δωθ)|が、ステップ808でのRψ(t)の算出に用いられると、Rψ(t)や速度値Vxの精度が劣化する。 In the present embodiment, since Equation (7) is used, in step 802, the angular velocity value ω θ is second-order differentiated, and noise in a high frequency range is added to the calculated value of the angular velocity. If this | Δ (Δω θ ) | is large, there is no problem, but if it is small, the S / N deteriorates. If | Δ (Δω θ ) | in which S / N deteriorates is used for calculation of R ψ (t) in step 808, the accuracy of R ψ (t) and the velocity value V x deteriorates.

そこで、ステップ803では、ステップ802で算出されたY軸周りの角速度の時間変化率Δ(Δωθ)が利用される。Δ(Δωθ)が閾値th1以下の場合、以前にメモリに記憶されたノイズの少ない回転半径Rψ(t)が読み出され(ステップ807)、読み出された回転半径Rψ(t)がステップ808における速度値Vxの算出に用いられる。 Therefore, in step 803, the temporal rate of change Δ (Δω θ ) of the angular velocity around the Y axis calculated in step 802 is used. When Δ (Δω θ ) is equal to or smaller than the threshold th1, the rotation radius R ψ (t) with less noise previously stored in the memory is read (step 807), and the read rotation radius R ψ (t) is This is used for calculating the velocity value V x in step 808.

ステップ809〜814では、以上のステップ803〜808までの処理と同様に、MPU19は、Y軸方向の速度値Vyを算出する。つまり、MPU19は、X軸周りの角速度の時間変化率の絶対値|Δ(Δωθ)|が、閾値th1を超えるか否かを判定し(ステップ809)、閾値th1を超える場合には、この角速度の時間変化率を用いてX軸周りの回転半径Rθ(t)を算出する(ステップ810)。 In steps 809 to 814, the MPU 19 calculates the velocity value V y in the Y-axis direction, as in the processes from the above steps 803 to 808. That is, the MPU 19 determines whether or not the absolute value | Δ (Δω θ ) | of the angular velocity around the X axis exceeds the threshold value th1 (step 809). A rotation radius R θ (t) around the X axis is calculated using the time rate of change of the angular velocity (step 810).

回転半径Rθ(t)の信号は、ローパスフィルタに通され(ステップ811)、メモリに記憶される(ステップ812)。閾値th1以下である場合には、メモリに記憶された回転半径Rθ(t)が読み出され(ステップ813)、この回転半径Rθ(t)に基いてピッチ方向の速度値Vyが算出される(ステップ814)。 The signal of the rotation radius R θ (t) is passed through the low-pass filter (step 811) and stored in the memory (step 812). If it is equal to or smaller than the threshold th1, the turning radius R θ (t) stored in the memory is read (step 813), and the velocity value V y in the pitch direction is calculated based on the turning radius R θ (t). (Step 814).

なお、本実施の形態では、ヨー方向及びピッチ方向の両方向について閾値を同じ値th1としたが、両方向で異なる閾値が用いられてもよい。   In the present embodiment, the threshold value is set to the same value th1 in both the yaw direction and the pitch direction, but different threshold values may be used in both directions.

ステップ803において、Δ(Δωθ)に代えて、角加速度値(Δωθ)が閾値に基き判定されてもよい。ステップ809についても同様に、Δ(Δωψ)に代えて、角加速度値(Δωψ)が閾値に基き判定されてもよい。図27に示したフローチャートでは、回転半径R(t)を算出するために式(7)が用いられたが、式(6)が用いられる場合、角加速度値(Δωψ、Δωθ)が算出されるので、角加速度値(Δωψ、Δωθ)が閾値に基き判定されてもよい。 In step 803, instead of Δ (Δω θ ), the angular acceleration value (Δω θ ) may be determined based on a threshold value. Similarly, in step 809, instead of Δ (Δω ψ ), the angular acceleration value (Δω ψ ) may be determined based on the threshold value. In the flowchart shown in FIG. 27, equation (7) is used to calculate the radius of rotation R (t), but when equation (6) is used, angular acceleration values (Δω ψ , Δω θ ) are calculated. Therefore, the angular acceleration values (Δω ψ , Δω θ ) may be determined based on the threshold value.

本発明に係る実施の形態は、以上説明した実施の形態に限定されず、他の種々の実施形態が考えられる。   Embodiments according to the present invention are not limited to the embodiments described above, and other various embodiments are conceivable.

上記各実施の形態に係る入力デバイスは、無線で入力情報を制御装置に送信する形態を示したが、有線により入力情報が送信されてもよい。   Although the input device according to each of the above embodiments has shown a form in which input information is wirelessly transmitted to the control device, the input information may be transmitted by wire.

上記各実施の形態では、入力デバイスの動きに応じて画面上で動くUIを、ポインタとして説明した。しかし、そのUIはポインタに限られず、キャラクタ画像、またはその他の画像であってもよい。   In each of the above embodiments, the UI that moves on the screen in accordance with the movement of the input device has been described as a pointer. However, the UI is not limited to the pointer, and may be a character image or another image.

上記操作スイッチ27の代わりに、入力デバイス101、201、または制御装置40が、操作スイッチ27の機能と同様の機能を有する、GUIを用いたプログラムを備えてもよい。その場合、例えばユーザがそのGUIを利用してスイッチON/OFF操作すればよい。   Instead of the operation switch 27, the input devices 101 and 201 or the control device 40 may include a program using a GUI having the same function as the function of the operation switch 27. In this case, for example, the user may perform a switch ON / OFF operation using the GUI.

センサユニット17の、角速度センサユニット15及び加速度センサユニット16の検出軸は、上述のX’軸及びY’軸のように必ずしも互いに直交していなくてもよい。その場合、三角関数を用いた計算によって、互いに直交する軸方向に投影されたそれぞれの加速度が得られる。また同様に、三角関数を用いた計算によって、互いに直交する軸の周りのそれぞれの角速度を得ることができる。   The detection axes of the angular velocity sensor unit 15 and the acceleration sensor unit 16 of the sensor unit 17 do not necessarily have to be orthogonal to each other like the X ′ axis and the Y ′ axis described above. In that case, the respective accelerations projected in the axial directions orthogonal to each other are obtained by calculation using trigonometric functions. Similarly, the angular velocities around the mutually orthogonal axes can be obtained by calculation using trigonometric functions.

入力デバイス1、251、301の代わりに、第1のボディ及び第2のボディが、Y’軸方向を回転軸として相対的に回転する本体を備えた入力デバイスが用いられてもよい。この場合、典型的には、第1のボディ及び第2のボディのそれぞれの端部同士が、その回転軸を有する接続機構により接続される。このような実施形態では、第1及び第2のボディの相対的な回転角度が第1の回転角度にあるときの本体の操作形態が第1の操作形態に相当する。第1及び第2のボディが、第1の回転角度とは異なる第2の回転角度にあるときの本体の操作形態が第2の操作形態に相当する。   Instead of the input devices 1, 251, and 301, an input device including a main body in which the first body and the second body rotate relatively with the Y′-axis direction as a rotation axis may be used. In this case, typically, the ends of the first body and the second body are connected to each other by a connection mechanism having the rotation shaft. In such an embodiment, the operation mode of the main body when the relative rotation angle of the first and second bodies is at the first rotation angle corresponds to the first operation mode. The operation mode of the main body when the first and second bodies are at a second rotation angle different from the first rotation angle corresponds to the second operation mode.

入力デバイス1(または、その他各実施の形態で示した入力デバイス101、201、251、301、401。以下、入力デバイス1等という。)が、例えば加速度センサユニット16または116を備え、角速度センサユニット15または115を備えない形態も考えられる。この場合、ステップ103で速度値(Vx、Vy)は、加速度センサユニット16により検出される加速度値(ax、ay)を積分演算することで求められる。ただし、この場合、Y及びX軸周りの角速度(ωψ、ωθ)は求めることができない。加速度センサユニット16の代わりに、イメージセンサにより加速度が算出されてもよい。 The input device 1 (or the input devices 101, 201, 251, 301, 401 shown in the other embodiments, hereinafter referred to as the input device 1, etc.) includes, for example, the acceleration sensor unit 16 or 116, and the angular velocity sensor unit. A configuration without 15 or 115 is also conceivable. In this case, the velocity values (V x , V y ) are obtained in step 103 by integrating the acceleration values (a x , a y ) detected by the acceleration sensor unit 16. However, in this case, angular velocities (ω ψ , ω θ ) around the Y and X axes cannot be obtained. Instead of the acceleration sensor unit 16, the acceleration may be calculated by an image sensor.

図25において、速度値(Vx、Vy)の算出方法が示された。これらの方法に限られず、MPU19は、角速度センサユニット15により検出される角速度値に応じた速度値(Vx、Vy)を算出してもよい。例えば、角速度値に応じた速度値とは、所定の演算式(角速度値と速度値との関数)により算出される速度値、または、ルックアップテーブルを用いてメモリから読み出される速度値である。この場合、加速度センサユニット16により得られる加速度値(ax、ay)は使われなくてもよい。 In FIG. 25, the calculation method of the velocity values (V x , V y ) is shown. Without being limited to these methods, the MPU 19 may calculate velocity values (V x , V y ) corresponding to the angular velocity values detected by the angular velocity sensor unit 15. For example, the velocity value corresponding to the angular velocity value is a velocity value calculated by a predetermined arithmetic expression (a function of the angular velocity value and the velocity value) or a velocity value read from the memory using a lookup table. In this case, the acceleration values (a x , a y ) obtained by the acceleration sensor unit 16 need not be used.

上記角速度センサユニット15の代わりとして、角度センサあるいは角加速度センサが用いられてもよい。角度センサとしては、地磁気センサまたはイメージセンサ等が挙げられる。例えば3軸地磁気センサが用いられる場合、角度値の変化量が検出されるので、その場合、角度値が微分演算されることで角速度値が得られる。角加速度センサは、複数の加速度センサの組み合わせにより構成され、角加速度センサにより得られる角加速度値が積分演算されることで、角速度値が得られる。これらのような実施形態の意味において、主にMPU19または35は、角度に関連する値としての角度関連値を出力する算出手段として機能する。   Instead of the angular velocity sensor unit 15, an angle sensor or an angular acceleration sensor may be used. Examples of the angle sensor include a geomagnetic sensor and an image sensor. For example, when a three-axis geomagnetic sensor is used, the amount of change in the angle value is detected. In this case, the angular velocity value is obtained by differentially calculating the angle value. The angular acceleration sensor is configured by a combination of a plurality of acceleration sensors, and an angular velocity value is obtained by integrating the angular acceleration value obtained by the angular acceleration sensor. In the meaning of these embodiments, the MPU 19 or 35 mainly functions as a calculation unit that outputs an angle-related value as a value related to an angle.

例えば、上記のように回転半径R(t)を算出する場合において、Y’軸及びX’軸周りの角加速度を検出する上記角加速度センサ、または角度を検出するセンサが用いられてもよい。この場合、角加速度センサにより検出された角加速度値が積分演算されることで角速度値(ωψ、ωθ)が求められる。あるいは、角度センサにより検出された角度値が微分演算されることで角速度値(ωψ、ωθ)が求められる。 For example, in the case of calculating the rotation radius R (t) as described above, the angular acceleration sensor that detects angular acceleration around the Y ′ axis and the X ′ axis, or a sensor that detects an angle may be used. In this case, the angular velocity values (ω ψ , ω θ ) are obtained by integrating the angular acceleration values detected by the angular acceleration sensor. Alternatively, the angular velocity values (ω ψ , ω θ ) are obtained by differentiating the angle values detected by the angle sensor.

本発明の一実施の形態に係る制御システムを示す図である。It is a figure which shows the control system which concerns on one embodiment of this invention. (A)は、入力デバイスを示す平面図であり、(B)は、その側面図である。(A) is a top view which shows an input device, (B) is the side view. 入力デバイスが開いた状態を示す平面図である。It is a top view which shows the state which the input device opened. 入力デバイスの内部の構成を模式的に示す図である。It is a figure which shows typically the internal structure of an input device. 入力デバイスの電気的な構成を示すブロック図である。It is a block diagram which shows the electric constitution of an input device. センサユニットを示す斜視図である。It is a perspective view which shows a sensor unit. 表示装置に表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed on a display apparatus. ユーザが入力デバイスを握った様子を示す図である。It is a figure which shows a mode that the user grasped the input device. 制御システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a control system. 制御装置が主要な演算を行う場合の、制御しシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a controlled system when a control apparatus performs main calculation. ユーザが入力デバイスの本体の開閉するときの、入力デバイスの動作を示すフローチャートである。It is a flowchart which shows operation | movement of an input device when a user opens and closes the main body of an input device. 本発明の他の実施の形態に係る入力デバイスの電気的な構成を示すブロック図である。It is a block diagram which shows the electric constitution of the input device which concerns on other embodiment of this invention. 図12に示した入力デバイスの動作を示すフローチャートである。13 is a flowchart showing an operation of the input device shown in FIG. 他の実施の形態に係るセンサユニットを示す斜視図である。It is a perspective view which shows the sensor unit which concerns on other embodiment. 図14に示したセンサユニットを備える入力デバイスの電気的な構成を示すブロック図である。It is a block diagram which shows the electric constitution of an input device provided with the sensor unit shown in FIG. 図15に示した入力デバイスの、ユーザにより操作形態が変えられるときの動作を示すフローチャートである。FIG. 16 is a flowchart showing an operation of the input device shown in FIG. 15 when an operation form is changed by a user. センサユニットの検出軸がシフトする形態を説明するための図である。It is a figure for demonstrating the form which the detection axis | shaft of a sensor unit shifts. (A)は、本発明の他の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。(B)は、その入力デバイスの他の操作形態を示す平面図である。(A) is a top view which shows one operation form of the input device which concerns on other embodiment of this invention. (B) is a top view which shows the other operation form of the input device. (A)は、本発明のさらに別の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。(B)は、その入力デバイスの他の操作形態を示す平面図である。(A) is a top view which shows one operation form of the input device which concerns on another embodiment of this invention. (B) is a top view which shows the other operation form of the input device. (A)は、本発明のさらに別の実施の形態に係る入力デバイスの一の操作形態を示す平面図である。(B)は、その入力デバイスの他の操作形態を示す平面図である。(A) is a top view which shows one operation form of the input device which concerns on another embodiment of this invention. (B) is a top view which shows the other operation form of the input device. 図20に示した入力デバイスの電気的な構成を示すブロック図である。FIG. 21 is a block diagram showing an electrical configuration of the input device shown in FIG. 20. 図20に示した入力デバイスの、ユーザにより操作形態が変えられるときの動作を示すフローチャートである。FIG. 21 is a flowchart showing an operation of the input device shown in FIG. 20 when an operation form is changed by a user. 本発明のさらに別の実施の形態に係る入力デバイスを示す平面図である。It is a top view which shows the input device which concerns on another embodiment of this invention. (A)は、一の操作形態でユーザにより図23に示した入力デバイスが操作される場合の、画面に対するセンサユニットの姿勢を示す図である。(B)は、他の操作形態でユーザによりその入力デバイスが操作される場合の、画面に対するセンサユニットの姿勢を示す図である。(A) is a figure which shows the attitude | position of the sensor unit with respect to a screen when the input device shown in FIG. 23 is operated by the user with one operation form. (B) is a figure which shows the attitude | position of the sensor unit with respect to a screen when the input device is operated by the user with another operation form. 速度値の算出方法の一実施の形態についての入力装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the input device about one Embodiment of the calculation method of a speed value. 速度値の算出方法の基本的な考え方を説明するための図である。It is a figure for demonstrating the basic view of the calculation method of a speed value. 回転半径を利用して速度値を算出する他の実施形態についての入力デバイスの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the input device about other embodiment which calculates a speed value using a turning radius. 加速度センサユニットへの重力の影響を説明するための図である。It is a figure for demonstrating the influence of the gravity on an acceleration sensor unit. 入力デバイスがピッチ方向に振られたときにおける重力加速度の影響を説明するための図であり、入力デバイスをX方向で見た図である。It is a figure for demonstrating the influence of gravitational acceleration when an input device is shaken in the pitch direction, and is the figure which looked at the input device in the X direction.

符号の説明Explanation of symbols

1、101、201、251、301、401、451…入力デバイス(ハンドヘルド型情報処理装置)
2…ポインタ
3…画面
10、210、310、410、460…本体
14、114、314、414…操作部
17、117…センサユニット
19…MPU
26…切り替え検出器
27…操作スイッチ
30…制御ユニット
31、231、331…第1のボディ
32、232、332…第2のボディ
33、233…ヒンジ部
34、134、334、474…操作キー
40…制御装置
100…制御システム
420…ディスプレイ
421…タッチパネル画面
1, 101, 201, 251, 301, 401, 451... Input device (handheld information processing apparatus)
2 ... Pointer 3 ... Screen 10, 210, 310, 410, 460 ... Main body 14, 114, 314, 414 ... Operation unit 17, 117 ... Sensor unit 19 ... MPU
26 ... Switching detector 27 ... Operation switch 30 ... Control unit 31, 231, 331 ... First body 32, 232, 332 ... Second body 33, 233 ... Hinge part 34, 134, 334, 474 ... Operation key 40 ... Control device 100 ... Control system 420 ... Display 421 ... Touch panel screen

Claims (20)

第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、
前記本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する出力手段と、
前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する検出手段と、
前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する制御手段と
を具備するハンドヘルド型情報処理装置。
A main body operated by a user in a first operation form and a second operation form different from the first operation form;
Output means for outputting a movement command for moving the UI displayed on the screen according to the movement of the main body;
Detecting means for detecting switching between the first operation mode and the second operation mode of the main body;
When the main body is operated in the first operation mode, the movement command is output by the output means to move the UI on the screen, and the main body is operated in the second operation mode. And a control unit that executes a decorrelation process for making the UI state on the screen uncorrelated with the movement of the main body.
請求項1に記載のハンドヘルド型情報処理装置であって、
前記本体は、
前記ユーザにより操作される操作キーと、
前記操作キーを収納する収納機構とを有し、
前記検出手段は、前記操作キーが前記収納機構により収納される形態を前記第1の操作形態として、前記操作キーが前記収納機構により収納されずに露出する形態を前記第2の操作形態として、前記切り替えを検出する
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 1,
The body is
An operation key operated by the user;
A storage mechanism for storing the operation keys;
In the detection means, a mode in which the operation key is stored by the storage mechanism is defined as the first operation mode, and a mode in which the operation key is exposed without being stored by the storage mechanism is defined as the second operation mode. A hand-held information processing apparatus that detects the switching.
請求項2に記載のハンドヘルド型情報処理装置であって、
前記本体は、スイッチを有し、
前記制御手段は、前記第2の操作形態で前記本体が操作され前記非相関処理を実行している途中に、前記ユーザにより前記スイッチによる入力操作があった場合、前記非相関処理を停止し、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させる
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 2,
The body has a switch,
The control means stops the decorrelation process when there is an input operation by the switch by the user while the main body is operated in the second operation mode and the decorrelation process is being executed. A hand-held information processing apparatus that causes the output unit to output the movement command to move the UI on the screen.
請求項1に記載のハンドヘルド型情報処理装置であって、
前記本体は、
第1のボディと、
第2のボディと、
前記第1のボディ及び前記第2のボディが相対的に動くように、前記第1のボディ及び前記第2のボディを接続する接続機構とを有し、
前記検出手段は、前記第1のボディ及び前記第2のボディが第1の相対位置にある状態を前記第1の操作形態として、前記第1のボディ及び前記第2のボディが第1の相対位置とは異なる第2の相対位置にある状態を前記第2の操作形態として、前記切り替えを検出するハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 1,
The body is
A first body;
A second body;
A connection mechanism for connecting the first body and the second body so that the first body and the second body move relative to each other;
The detection means uses the state in which the first body and the second body are in a first relative position as the first operation mode, and the first body and the second body are in a first relative position. A hand-held information processing apparatus that detects the switching by using a state at a second relative position different from a position as the second operation mode.
請求項1に記載のハンドヘルド型情報処理装置であって、
前記本体は、タッチパネル画面を表示可能なタッチパネル型のディスプレイを有し、
前記検出手段は、前記タッチパネル画面を介してユーザがタッチ操作が可能な形態を前記第2の操作形態とし、前記タッチ操作が解除された形態を前記第1の操作形態として、前記切り替えを検出する
The handheld information processing apparatus according to claim 1,
The main body has a touch panel type display capable of displaying a touch panel screen,
The detection means detects the switching with the form in which the user can perform a touch operation via the touch panel screen as the second operation form and the form in which the touch operation is released as the first operation form.
請求項1に記載のハンドヘルド型情報処理装置であって、
前記本体は、前記ユーザにより、前記第1の操作形態では第1の姿勢で操作され、前記第2の操作形態では前記第1の姿勢とは異なる第2の姿勢で操作される
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 1,
The main body is operated by the user in a first posture in the first operation mode, and is operated in a second posture different from the first posture in the second operation mode. apparatus.
請求項6に記載のハンドヘルド型情報処理装置であって、
前記出力手段は、前記本体の加速度を検出する加速度センサを有し、
前記検出手段は、前記加速度センサにより検出された重力加速度の変化に応じて前記切り替えを検出する
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 6,
The output means includes an acceleration sensor that detects acceleration of the main body,
The detection means detects the switching according to a change in gravitational acceleration detected by the acceleration sensor.
請求項3に記載のハンドヘルド型情報処理装置であって、
前記出力手段は、第1の検出軸及び第2の検出軸を有するセンサを有し、前記センサにより第1の方向及び前記第1の方向とは異なる第2の方向の両方の前記本体の動きを検出させ、前記第1の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第1の方向での前記本体の動きに応じた第1の移動コマンド、及び、前記第2の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第2の方向での前記本体の動きに応じた第2の移動コマンドを、前記移動コマンドとして出力する
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 3,
The output means includes a sensor having a first detection axis and a second detection axis, and the movement of the main body in both the first direction and the second direction different from the first direction by the sensor. A first movement command according to a movement of the main body in the first direction for detecting the movement of the UI along an axis on the screen corresponding to the first direction; and A second movement command corresponding to the movement of the main body in the second direction for moving the UI along an axis on the screen corresponding to the second direction. Output as a handheld information processing device.
請求項8に記載のハンドヘルド型情報処理装置であって、
前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させ、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1の方向の前記本体の動きを前記第2の検出軸で検出させ、前記第2の検出軸で検出された前記本体の動きに応じた前記第1の移動コマンドを前記出力手段により出力させる
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 8,
When the main body is operated in the first operation mode, the control means detects the movement of the main body in the first and second directions with the first and second detection axes, respectively. When the output means outputs the first and second movement commands corresponding to the detected movement of the main body, and the main body is operated in the second operation mode, the first The movement of the main body in the direction is detected by the second detection axis, and the first movement command corresponding to the movement of the main body detected by the second detection axis is output by the output means. Processing equipment.
請求項8に記載のハンドヘルド型情報処理装置であって、
前記センサは、第3の検出軸を有し、
前記制御手段は、前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させ、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第2及び前記第3の検出軸で検出させ、前記検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させる
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 8,
The sensor has a third detection axis;
When the main body is operated in the first operation mode, the control means detects the movement of the main body in the first and second directions with the first and second detection axes, respectively. When the output means outputs the first and second movement commands corresponding to the detected movement of the main body, and the main body is operated in the second operation mode, the first and second The movement of the main body in the second direction is detected by the second and third detection axes, and the output means outputs the first and second movement commands according to the detected movement of the main body. A hand-held information processing device that outputs the data.
請求項8に記載のハンドヘルド型情報処理装置であって、
前記本体は、
第1のボディと、
第2のボディと、
前記第1のボディ及び前記第2のボディが相対的に動くように、前記第1のボディ及び前記第2のボディを接続する接続機構と
を有するハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 8,
The body is
A first body;
A second body;
A hand-held information processing apparatus comprising: a connection mechanism that connects the first body and the second body so that the first body and the second body move relatively.
請求項11に記載のハンドヘルド型情報処理装置であって、
前記接続機構は、前記第1のボディに対して前記第2のボディを開閉するための、前記第1の検出軸に沿うヒンジ軸を有する
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 11,
The hand-held information processing apparatus, wherein the connection mechanism has a hinge axis along the first detection axis for opening and closing the second body with respect to the first body.
請求項11に記載のハンドヘルド型情報処理装置であって、
前記接続機構は、前記第1のボディに対して前記第2のボディを、前記第1の検出軸に沿う方向にスライドさせるスライド機構を有する
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 11,
The connection mechanism includes a slide mechanism that slides the second body in a direction along the first detection axis with respect to the first body.
請求項11に記載のハンドヘルド型情報処理装置であって、
前記接続機構は、前記第2の検出軸に沿う方向の回転軸を有した、前記第1のボディに対して前記第2のボディを前記回転軸で回転させる回転機構を有する
ハンドヘルド型情報処理装置。
The handheld information processing apparatus according to claim 11,
The connection mechanism has a rotation mechanism having a rotation axis in a direction along the second detection axis, and rotating the second body with the rotation axis with respect to the first body. .
第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、
第1の検出軸及び前記第2の検出軸を有するセンサを含み、前記センサにより第1の方向及び前記第1の方向とは異なる第2の方向の両方の前記本体の動きを検出させ、前記第1の方向に対応する画面上での軸に沿ってUIを移動させるための、前記第1の方向での前記本体の動きに応じた第1の移動コマンド、及び、前記第2の方向に対応する前記画面上での軸に沿って前記UIを移動させるための、前記第2の方向での前記本体の動きに応じた第2の移動コマンドを出力する出力手段と、
前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する検出手段と、
前記第1の操作形態で前記本体が操作される場合、前記第1及び前記第2の方向の前記本体の動きを前記第1及び前記第2の検出軸でそれぞれ検出させ、前記第1及び前記第2の検出軸でそれぞれ検出された前記本体の動きに応じた前記第1及び前記第2の移動コマンドを前記出力手段により出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記第1の方向の前記本体の動きを前記第2の検出軸で検出させて、前記第2の検出軸で検出された前記本体の動きに応じた前記第1の移動コマンドを前記出力手段により出力させる制御手段と
を具備するハンドヘルド型情報処理装置。
A main body operated by a user in a first operation form and a second operation form different from the first operation form;
A sensor having a first detection axis and a second detection axis, wherein the sensor detects movement of the main body in both the first direction and a second direction different from the first direction, A first movement command according to the movement of the main body in the first direction, and a second movement direction in order to move the UI along an axis on the screen corresponding to the first direction; Output means for outputting a second movement command corresponding to the movement of the main body in the second direction for moving the UI along the corresponding axis on the screen;
Detecting means for detecting switching between the first operation mode and the second operation mode of the main body;
When the main body is operated in the first operation mode, movements of the main body in the first and second directions are detected by the first and second detection axes, respectively. The output means outputs the first and second movement commands corresponding to the movement of the main body detected by the second detection axis, and the main body is operated in the second operation mode. In this case, the movement of the main body in the first direction is detected by the second detection axis, and the first movement command corresponding to the movement of the main body detected by the second detection axis is output. A hand-held information processing apparatus comprising: control means for outputting by the means.
第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、前記本体の動きに応じた移動コマンドを出力する出力手段と、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である形態情報を出力する形態情報出力手段とを備えるハンドヘルド型情報処理装置から出力された、前記移動コマンド及び前記形態情報に基づき、画面上に表示されるUIの動きを制御する制御装置であって、
前記移動コマンド及び前記形態情報を受信する受信手段と、
前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定する判定手段と、
前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成する生成手段と、
前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する実行手段と
を具備する制御装置。
A main body operated by a user in a first operation form and a second operation form different from the first operation form, an output means for outputting a movement command corresponding to the movement of the main body, and the first of the main body Morphological information, which is information indicating whether the main body is operated in one of the first operation form and the second operation form, when switching between one operation form and the second operation form is detected. A control device that controls the movement of a UI displayed on a screen based on the movement command and the configuration information output from a handheld information processing device including output configuration information output means;
Receiving means for receiving the movement command and the configuration information;
A determination means for determining whether the main body is operated in one of the first operation form and the second operation form based on the form information;
Generation of generating coordinate information of the UI on the screen based on the received movement command to move the UI on the screen when the main body is operated in the first operation mode Means,
Execution means for executing decorrelation processing for making the state of the UI on the screen uncorrelated with the movement of the body when the body is operated in the second operation mode. Control device.
第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、
前記本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力する出力手段と、
前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出する検出手段と、
前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために前記出力手段により前記移動コマンドを出力させ、かつ、前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する制御手段とを有するハンドヘルド型情報処理装置と、
前記移動コマンドを受信する受信手段と、
前記受信された移動コマンドに基づき、前記画面上で前記UIを移動させるために、前記画面上での前記UIの座標情報を生成する生成手段とを有する制御装置と
を具備する制御システム。
A main body operated by a user in a first operation form and a second operation form different from the first operation form;
Output means for outputting a movement command for moving the UI displayed on the screen according to the movement of the main body;
Detecting means for detecting switching between the first operation mode and the second operation mode of the main body;
When the main body is operated in the first operation mode, the movement command is output by the output means to move the UI on the screen, and the main body is operated in the second operation mode. A handheld information processing apparatus having control means for executing a decorrelation process for making the UI state on the screen uncorrelated with the movement of the main body;
Receiving means for receiving the movement command;
A control system comprising: a generation unit configured to generate coordinate information of the UI on the screen in order to move the UI on the screen based on the received movement command.
第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、
前記本体の動きに応じた移動コマンドを出力する出力手段と、
前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である形態情報を出力する形態情報出力手段とを有するハンドヘルド型情報処理装置と、
前記移動コマンド及び前記形態情報を受信する受信手段と、
前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定する判定手段と、
前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成する生成手段と、
前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する実行手段とを有する制御装置と
を具備する制御システム。
A main body operated by a user in a first operation form and a second operation form different from the first operation form;
Output means for outputting a movement command according to the movement of the main body;
Information on whether the main body is operated in one of the first operation form and the second operation form is detected by detecting switching between the first operation form and the second operation form of the main body. A handheld information processing apparatus having morphological information output means for outputting morphological information,
Receiving means for receiving the movement command and the configuration information;
A determination means for determining whether the main body is operated in one of the first operation form and the second operation form based on the form information;
Generation of generating coordinate information of the UI on the screen based on the received movement command to move the UI on the screen when the main body is operated in the first operation mode Means,
And executing means for executing a decorrelation process for making the UI state on the screen uncorrelated with the movement of the body when the body is operated in the second operation mode. A control system comprising a control device.
ハンドヘルド型情報処理装置により、第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体の動きに応じた、画面上で表示されるUIを移動させるための移動コマンドを出力し、
ハンドヘルド型情報処理装置により、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、
前記第1の操作形態で前記本体が操作される場合、ハンドヘルド型情報処理装置により、前記画面上で前記UIを移動させるために前記移動コマンドを出力し、
前記第2の操作形態で前記本体が操作される場合、ハンドヘルド型情報処理装置により、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する
制御方法。
The UI displayed on the screen is moved in accordance with the movement of the main body operated by the user in the first operation form and the second operation form different from the first operation form by the handheld information processing apparatus. Output a move command for
By detecting the switching between the first operation mode and the second operation mode of the main body by a handheld information processing device,
When the main body is operated in the first operation mode, the movement command is output to move the UI on the screen by a handheld information processing device,
When the main body is operated in the second operation mode, a hand-held information processing device performs a decorrelation process for making the UI state on the screen uncorrelated with the movement of the main body. Control method to execute.
第1の操作形態及び前記第1の操作形態とは異なる第2の操作形態でユーザに操作される本体と、前記本体の動きに応じた移動コマンドを出力する出力手段と、前記本体の前記第1の操作形態及び前記第2の操作形態の切り替えを検出し、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかの情報である形態情報を出力する形態情報出力手段とを備えるハンドヘルド型情報処理装置から出力された、前記移動コマンド及び前記形態情報に基づき、画面上に表示されるUIの動きを制御する制御装置の制御方法であって、
前記移動コマンド及び前記形態情報を受信し、
前記形態情報に基づき、前記本体が前記第1の操作形態及び前記第2の操作形態のうちいずれの形態で操作されるかを判定し、
前記第1の操作形態で前記本体が操作される場合、前記画面上で前記UIを移動させるために、前記受信された移動コマンドに基づき、前記画面上での前記UIの座標情報を生成し、
前記第2の操作形態で前記本体が操作される場合、前記画面上での前記UIの状態を、前記本体の動きに非相関な状態にするための非相関処理を実行する
制御方法。
A main body operated by a user in a first operation form and a second operation form different from the first operation form, an output means for outputting a movement command corresponding to the movement of the main body, and the first of the main body Morphological information, which is information indicating whether the main body is operated in one of the first operation form and the second operation form, when switching between one operation form and the second operation form is detected. A control method for a control device that controls movement of a UI displayed on a screen based on the movement command and the configuration information output from a handheld information processing device including output configuration information output means,
Receiving the movement command and the form information;
Based on the form information, determine whether the main body is operated in the first operation form or the second operation form,
When the main body is operated in the first operation mode, in order to move the UI on the screen, the coordinate information of the UI on the screen is generated based on the received movement command,
When the main body is operated in the second operation mode, a control method for executing a decorrelation process for making the UI state on the screen uncorrelated with the movement of the main body.
JP2008114088A 2008-04-24 2008-04-24 Hand-held information processor, controller, control system and control method Pending JP2009265897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008114088A JP2009265897A (en) 2008-04-24 2008-04-24 Hand-held information processor, controller, control system and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008114088A JP2009265897A (en) 2008-04-24 2008-04-24 Hand-held information processor, controller, control system and control method

Publications (1)

Publication Number Publication Date
JP2009265897A true JP2009265897A (en) 2009-11-12

Family

ID=41391688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008114088A Pending JP2009265897A (en) 2008-04-24 2008-04-24 Hand-held information processor, controller, control system and control method

Country Status (1)

Country Link
JP (1) JP2009265897A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255121A (en) * 2010-06-11 2011-12-22 Nintendo Co Ltd Game program, game apparatus, game system, and game method
JP2012138808A (en) * 2010-12-27 2012-07-19 Toshiba Corp Remote control device
JP2013036735A (en) * 2012-10-02 2013-02-21 Mitsubishi Electric Corp Air conditioner
JP2013036736A (en) * 2012-10-02 2013-02-21 Mitsubishi Electric Corp Remote controller of air conditioner
JP2013143775A (en) * 2012-01-06 2013-07-22 Samsung Electronics Co Ltd Display apparatus, input apparatus, and method for controlling the same
JP2014503873A (en) * 2010-11-15 2014-02-13 モベア Smart air mouse
WO2014188549A1 (en) * 2013-05-22 2014-11-27 株式会社東芝 Apparatus control method, apparatus control device, program, and electronic apparatus
JP2015509629A (en) * 2012-02-23 2015-03-30 コーニンクレッカ フィリップス エヌ ヴェ Remote control device

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06326887A (en) * 1993-05-14 1994-11-25 Sony Corp Control system
JP2000148351A (en) * 1998-09-09 2000-05-26 Matsushita Electric Ind Co Ltd Operation instruction output device giving operation instruction in accordance with kind of user's action and computer-readable recording medium
JP2001224084A (en) * 2000-02-08 2001-08-17 Funai Electric Co Ltd Remote controller
JP2004096548A (en) * 2002-09-02 2004-03-25 Hitachi Ltd Mouse remote controller and video information system using the same
JP2005136457A (en) * 2003-10-28 2005-05-26 Sanyo Electric Co Ltd Mobile phone, reproducing method, and program
WO2006098053A1 (en) * 2005-03-15 2006-09-21 Sharp Kabushiki Kaisha Portable terminal, image information checking method for portable terminal, image information checking program, and recording medium
JP2006287581A (en) * 2005-03-31 2006-10-19 Sharp Corp Remote control system
JP2006311224A (en) * 2005-04-28 2006-11-09 Nec Saitama Ltd Folding mobile phone
JP2007067511A (en) * 2005-08-29 2007-03-15 Sony Ericsson Mobilecommunications Japan Inc Mobile information terminal and remote control method
JP2007081785A (en) * 2005-09-14 2007-03-29 Casio Hitachi Mobile Communications Co Ltd Portable terminal and program
JP2007094558A (en) * 2005-09-27 2007-04-12 Denso Corp Remote control device
JP2007200228A (en) * 2006-01-30 2007-08-09 Wacom Co Ltd Position input device, remote controller, remote control system
JP2008047047A (en) * 2006-08-21 2008-02-28 Canon Inc Input device, method and program and storage medium
JP2008176641A (en) * 2007-01-19 2008-07-31 Nec Corp Command input device for portable terminal and command input method for portable terminal
JP2008187407A (en) * 2007-01-29 2008-08-14 Aplix Corp Mobile terminal

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06326887A (en) * 1993-05-14 1994-11-25 Sony Corp Control system
JP2000148351A (en) * 1998-09-09 2000-05-26 Matsushita Electric Ind Co Ltd Operation instruction output device giving operation instruction in accordance with kind of user's action and computer-readable recording medium
JP2001224084A (en) * 2000-02-08 2001-08-17 Funai Electric Co Ltd Remote controller
JP2004096548A (en) * 2002-09-02 2004-03-25 Hitachi Ltd Mouse remote controller and video information system using the same
JP2005136457A (en) * 2003-10-28 2005-05-26 Sanyo Electric Co Ltd Mobile phone, reproducing method, and program
WO2006098053A1 (en) * 2005-03-15 2006-09-21 Sharp Kabushiki Kaisha Portable terminal, image information checking method for portable terminal, image information checking program, and recording medium
JP2006287581A (en) * 2005-03-31 2006-10-19 Sharp Corp Remote control system
JP2006311224A (en) * 2005-04-28 2006-11-09 Nec Saitama Ltd Folding mobile phone
JP2007067511A (en) * 2005-08-29 2007-03-15 Sony Ericsson Mobilecommunications Japan Inc Mobile information terminal and remote control method
JP2007081785A (en) * 2005-09-14 2007-03-29 Casio Hitachi Mobile Communications Co Ltd Portable terminal and program
JP2007094558A (en) * 2005-09-27 2007-04-12 Denso Corp Remote control device
JP2007200228A (en) * 2006-01-30 2007-08-09 Wacom Co Ltd Position input device, remote controller, remote control system
JP2008047047A (en) * 2006-08-21 2008-02-28 Canon Inc Input device, method and program and storage medium
JP2008176641A (en) * 2007-01-19 2008-07-31 Nec Corp Command input device for portable terminal and command input method for portable terminal
JP2008187407A (en) * 2007-01-29 2008-08-14 Aplix Corp Mobile terminal

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255121A (en) * 2010-06-11 2011-12-22 Nintendo Co Ltd Game program, game apparatus, game system, and game method
JP2014503873A (en) * 2010-11-15 2014-02-13 モベア Smart air mouse
JP2012138808A (en) * 2010-12-27 2012-07-19 Toshiba Corp Remote control device
JP2013143775A (en) * 2012-01-06 2013-07-22 Samsung Electronics Co Ltd Display apparatus, input apparatus, and method for controlling the same
JP2015509629A (en) * 2012-02-23 2015-03-30 コーニンクレッカ フィリップス エヌ ヴェ Remote control device
US9715823B2 (en) 2012-02-23 2017-07-25 Koninklijke Philips N.V. Remote control device
JP2013036735A (en) * 2012-10-02 2013-02-21 Mitsubishi Electric Corp Air conditioner
JP2013036736A (en) * 2012-10-02 2013-02-21 Mitsubishi Electric Corp Remote controller of air conditioner
WO2014188549A1 (en) * 2013-05-22 2014-11-27 株式会社東芝 Apparatus control method, apparatus control device, program, and electronic apparatus
JP5659303B1 (en) * 2013-05-22 2015-01-28 株式会社東芝 DEVICE CONTROL METHOD, DEVICE CONTROL DEVICE, PROGRAM, AND ELECTRONIC DEVICE

Similar Documents

Publication Publication Date Title
JP5440167B2 (en) Input device, control device, control method, and handheld device
JP5201146B2 (en) Input device, control device, control system, control method, and handheld device
JP4702475B2 (en) Input device, handheld device and control method
US8531399B2 (en) Control apparatus, input apparatus, control system, control method, and handheld apparatus
JP5293603B2 (en) Input device, control device, control system, control method, and handheld device
EP2353065B1 (en) Controlling and accessing content using motion processing on mobile devices
JP2009265897A (en) Hand-held information processor, controller, control system and control method
JP4325707B2 (en) INPUT DEVICE, CONTROL DEVICE, CONTROL SYSTEM, AND CONTROL METHOD
JP5440176B2 (en) Input device, control device, control system, handheld device, and control method
US9152246B2 (en) Input apparatus, control apparatus, control system, electronic apparatus, and control method
JP5315857B2 (en) Input device, control system, and control method
US8395583B2 (en) Input apparatus, control apparatus, control system, control method, and handheld apparatus
JPWO2008149991A1 (en) Information processing apparatus, input apparatus, information processing system, information processing method, and program
JP2010152493A (en) Input device, control apparatus, and control method for the input device
US8614671B2 (en) Input apparatus, control apparatus, control system, and control method
JPWO2009072471A1 (en) Input device, control device, control system, control method, and handheld device
JP2009140107A (en) Input device and control system
JP5412812B2 (en) Input device, control device, control system, and handheld device
JP2010157106A (en) Input device, controller, handheld device, control system, and control method
JPWO2009048113A1 (en) Input device, control device, control system, control method, and handheld device
JP2010157157A (en) Input device, controller, handheld device, control system, and control method
JP2011108270A (en) Input device, handheld device and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120626