JP5817322B2 - Information processing apparatus, information processing system, and operation device - Google Patents

Information processing apparatus, information processing system, and operation device Download PDF

Info

Publication number
JP5817322B2
JP5817322B2 JP2011178776A JP2011178776A JP5817322B2 JP 5817322 B2 JP5817322 B2 JP 5817322B2 JP 2011178776 A JP2011178776 A JP 2011178776A JP 2011178776 A JP2011178776 A JP 2011178776A JP 5817322 B2 JP5817322 B2 JP 5817322B2
Authority
JP
Japan
Prior art keywords
information
sensor
acceleration
angular velocity
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011178776A
Other languages
Japanese (ja)
Other versions
JP2013041487A (en
JP2013041487A5 (en
Inventor
後藤 哲郎
哲郎 後藤
栗屋 志伸
志伸 栗屋
正俊 上野
正俊 上野
憲一 樺澤
憲一 樺澤
鈴木 達也
達也 鈴木
翼 塚原
翼 塚原
中川 俊之
俊之 中川
川部 英雄
英雄 川部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011178776A priority Critical patent/JP5817322B2/en
Publication of JP2013041487A publication Critical patent/JP2013041487A/en
Publication of JP2013041487A5 publication Critical patent/JP2013041487A5/ja
Application granted granted Critical
Publication of JP5817322B2 publication Critical patent/JP5817322B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本技術は、動きセンサ等を有する操作デバイスが、ユーザーにより3次元空間内で操作される時に、その動きセンサ等から得られる情報に基づき、操作デバイスの動きに応じた操作対象物の動きを実現するための演算を実行する情報処理装置、情報処理システム、情報処理方法、また操作デバイスに関する。   This technology realizes the movement of the operation object according to the movement of the operation device based on the information obtained from the movement sensor when the operation device having the movement sensor is operated in the three-dimensional space by the user. The present invention relates to an information processing apparatus, an information processing system, an information processing method, and an operation device that execute an operation for performing the operation.

特許文献1に記載の遠隔操作装置は、その筺体の姿勢及び動きをセンサにより検出し、検出された姿勢及び動き量に基づいて、TV等の操作対象機器を操作するための信号を出力する。具体的には、遠隔操作装置の筺体は立方体に形成され、遠隔操作装置は、この遠隔操作装置が有する加速度センサの出力及びジャイロセンサの出力の組み合わせに応じた操作命令(コマンド)の信号を出力する(例えば、特許文献1の明細書段落[0050]〜[0052]、図4〜6参照)。   The remote operation device described in Patent Literature 1 detects the posture and motion of the housing by a sensor, and outputs a signal for operating an operation target device such as a TV based on the detected posture and motion amount. Specifically, the casing of the remote control device is formed in a cube, and the remote control device outputs an operation command (command) signal corresponding to the combination of the output of the acceleration sensor and the output of the gyro sensor of the remote control device. (For example, refer to paragraphs [0050] to [0052] and FIGS. 4 to 6 of Patent Document 1).

特開2009−100366号公報JP 2009-1003006 A

近年では、TV、PC(Personal Computer)、ゲーム機器等の操作対象機器の性能が向上している。操作対象機器の性能向上に伴い、遠隔操作装置による操作内容も複雑化及び多岐化し、遠隔操作装置は、多数の細かなボタンを持つに至っている。したがって、ユーザーが目的とする操作に対応するボタンを容易には見つけられない事態が生じる。また、ユーザーが、複雑な階層構造を持つアプリケーションソフトウェア上の多数のメニューを見ながら、操作項目を選択し決定する必要がある。   In recent years, the performance of operation target devices such as TVs, PCs (Personal Computers), and game devices has been improved. As the performance of the operation target device is improved, the contents of operations performed by the remote operation device have become complicated and diversified, and the remote operation device has a large number of fine buttons. Therefore, a situation occurs in which the button corresponding to the operation intended by the user cannot be easily found. In addition, the user needs to select and determine an operation item while viewing a large number of menus on application software having a complicated hierarchical structure.

以上のような事情に鑑み、本技術の目的は、ユーザーの操作性を向上させることができる操作デバイスに関する情報処理装置、情報処理システム、操作デバイス及び情報処理方法を提供することにある。   In view of the circumstances as described above, an object of the present technology is to provide an information processing apparatus, an information processing system, an operation device, and an information processing method related to an operation device that can improve user operability.

上記目的を達成するため、本技術に係る情報処理装置は、取得部と、記憶部と、検知部と、生成部と、送信部とを具備する。
前記取得部は、操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、第1のセンサで検出される動き情報を取得する。前記操作デバイスは、複数の操作領域を有する表面を含む筺体と、前記筺体の動きを検出する第1のセンサと、前記複数の操作領域に対する外力を検出可能な第2のセンサとを有する。
前記記憶部は、前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する。
前記検知部は、前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する。
前記生成部は、前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成する。
前記送信部は、少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する。
In order to achieve the above object, an information processing apparatus according to the present technology includes an acquisition unit, a storage unit, a detection unit, a generation unit, and a transmission unit.
The acquisition unit acquires motion information detected by the first sensor when the user operates the operating device to rotate with the operating device placed on the operating surface. The operation device includes a housing including a surface having a plurality of operation regions, a first sensor that detects movement of the housing, and a second sensor that can detect an external force applied to the plurality of operation regions.
The storage unit stores information on a plurality of postures of the operation device for defining the plurality of operation areas, and information on a plurality of operation commands respectively corresponding to the plurality of operation areas. .
The detection unit detects an attitude of the operation device operated by the user based on the acquired movement information.
In the second sensor, the generation unit is a region that is not in contact with the operation surface of the surface of the casing having the detected posture, and that an upper side region of the casing is pressed by the user. If detected by the above, an operation command corresponding to posture information that defines an operation region located at a predetermined position on the surface of the housing among the plurality of operation regions is generated.
The transmission unit transmits at least the generated operation command to an operation target device of the operation device.

本技術では、ユーザーによる操作デバイスの回転操作時に検知されたユーザーが見やすい位置である上部側領域が、ユーザーにより押されることをトリガーとして、上部側領域の所定位置に位置する操作領域に対応する姿勢の情報に対応する操作コマンドが生成される。これにより、ユーザーの操作性を向上させることができる。   In this technology, the posture corresponding to the operation region located at a predetermined position of the upper side region triggered by the user pressing the upper side region, which is a position that is easily seen by the user when the user rotates the operation device. An operation command corresponding to the information is generated. Thereby, user operability can be improved.

「第1のセンサ」と「第2のセンサ」は、同じセンサであってもよい。ここでの「同じセンサ」とは、第1のセンサが第2のセンサの機能を兼用する意味と、それらのセンサが、構造的に同じ種類のセンサである意味の両方を含む。   The “first sensor” and the “second sensor” may be the same sensor. The “same sensor” here includes both the meaning that the first sensor also functions as the second sensor and the meaning that these sensors are structurally the same type of sensor.

前記生成部は、前記複数の操作領域のうち、前記3次元内における鉛直軸が通る鉛直操作領域を前記所定位置に位置する操作領域として、前記鉛直操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成してもよい。上部側領域のうち鉛直軸が通る領域が、ユーザーにとって見やすい位置にある領域である場合が多い。したがって、本技術によればユーザーの操作性を向上させることができる。この場合、鉛直操作領域に対応しない領域がユーザーにより押し込まれても、その鉛直操作領域に対応する操作コマンドが生成される。   The generation unit corresponds to the posture information that defines the vertical operation area, with the vertical operation area through which the vertical axis in the three-dimensional dimension passes as the operation area located at the predetermined position among the plurality of operation areas. The operation command may be generated. Often, the region through which the vertical axis passes in the upper region is a region that is easily visible to the user. Therefore, according to the present technology, user operability can be improved. In this case, even if an area not corresponding to the vertical operation area is pushed in by the user, an operation command corresponding to the vertical operation area is generated.

前記生成部は、前記鉛直操作領域が前記ユーザーにより押されたことが検出された場合、前記鉛直操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成してもよい。   The generation unit may generate the operation command corresponding to the posture information that defines the vertical operation area when it is detected that the vertical operation area is pressed by the user.

前記生成部は、前記上部側領域のうち、前記鉛直操作領域に隣接する少なくとも1つの操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成可能である。これにより、鉛直操作領域を含む周辺の操作領域に対応する操作も実行可能となる。   The generation unit can generate the operation command corresponding to the posture information that defines at least one operation region adjacent to the vertical operation region in the upper side region. Thereby, the operation corresponding to the surrounding operation area including the vertical operation area can be executed.

前記操作対象機器は、前記複数の操作領域にそれぞれ関連する複数の関連画像を表示のために出力可能であってもよい。その場合、前記送信部は、前記複数の関連画像のうち、少なくとも前記所定位置に位置する前記操作領域に関連する関連画像を、前記動き情報に基づき前記操作対象機器に表示のために出力させるために、前記取得された動き情報または前記検知された姿勢の検知情報を前記操作対象機器へ送信してもよい。これにより、ユーザーはその操作対象機器により生成されて表示された操作領域に関連する画像を見ながら、複数の操作領域のうち1つの操作領域を選択することができる。これにより操作性が向上する。   The operation target device may be capable of outputting a plurality of related images respectively related to the plurality of operation areas for display. In that case, the transmission unit causes the operation target device to output a related image related to the operation region located at the predetermined position among the plurality of related images for display based on the motion information. In addition, the acquired motion information or the detected posture detection information may be transmitted to the operation target device. Accordingly, the user can select one operation area from among the plurality of operation areas while viewing an image related to the operation area generated and displayed by the operation target device. This improves operability.

前記送信部は、前記所定位置に位置する前記操作領域に関連する関連画像を、前記操作デバイスの動きに応じて選択的に強調表示させるために、前記取得された動き情報または前記検知された姿勢の検知情報を前記操作対象機器へ送信してもよい。これにより、ユーザーにとっての視認性及び操作性が向上する。   The transmission unit acquires the motion information acquired or the detected posture in order to selectively highlight a related image related to the operation region located at the predetermined position according to the motion of the operation device. The detection information may be transmitted to the operation target device. This improves visibility and operability for the user.

前記操作デバイスの前記筺体の表面のうち、少なくとも、前記操作面に接触する面が球面であってもよい。   Of the surfaces of the casing of the operation device, at least a surface that contacts the operation surface may be a spherical surface.

前記操作デバイスは、前記筺体の表面に設けられた、前記複数の操作領域にそれぞれ関連する複数の関連画像を表示するディスプレイを有してもよい。これにより、ユーザーは、このディスプレイを見ながら操作デバイスを操作することができる。   The operation device may include a display that is provided on a surface of the housing and displays a plurality of related images respectively associated with the plurality of operation regions. Thereby, the user can operate the operation device while looking at the display.

前記情報処理装置は、停止部と、解除部とをさらに具備してもよい。前記停止部は、前記検知部による、前記操作デバイスの姿勢の検知情報の出力を停止するか、または、前記送信部による前記動き情報の前記操作対象機器への送信を停止する。前記解除部は、前記第2のセンサによる所定の外力が検出された場合、前記停止部による前記送信の停止を解除する。   The information processing apparatus may further include a stop unit and a release unit. The said stop part stops the output of the detection information of the attitude | position of the said operation device by the said detection part, or stops the transmission to the said operation target apparatus of the said movement information by the said transmission part. The release unit releases the stop of the transmission by the stop unit when a predetermined external force is detected by the second sensor.

本技術に係る情報処理システムは、上述した、取得部と、記憶部と、検知部と、生成部と、送信部とを含む情報処理装置と、受信部と、出力部とを含む操作対象機器とを具備する。
前記受信部は、少なくとも前記送信された操作コマンドを受信する。
前記出力部は、前記受信された操作コマンドの情報に基づき、前記複数の操作領域にそれぞれ関連する関連画像を表示のために出力する。
The information processing system according to the present technology includes the above-described operation target device including an acquisition unit, a storage unit, a detection unit, a generation unit, a transmission unit, a reception unit, and an output unit. It comprises.
The receiving unit receives at least the transmitted operation command.
The output unit outputs, for display, related images respectively associated with the plurality of operation areas based on the received operation command information.

本技術に係る他の情報処理システムは、取得部と、検知部と、生成部と、送信部とを含む情報処理装置と、記憶部と、受信部と、実行部とを含む操作対象機器とを具備する。
前記取得部は、前記操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、第1のセンサで検出される動き情報を取得する。前記操作デバイスは、筺体と、前記筺体の動きを検出する第1のセンサと、前記筺体に対する外力を検出可能な第2のセンサとを有する。
前記検知部は、前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する。
前記生成部は、前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、実行コマンドを生成する。
前記送信部は、前記生成された実行コマンドと、前記取得された動き情報または前記検知された姿勢の検知情報とを、前記操作デバイスの操作対象機器へ送信する。
前記記憶部は、複数の操作領域をそれぞれ画定するための、仮想的な平面領域に表された複数の座標範囲の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する。
前記受信部は、前記情報処理装置から送信された情報を受信する。
前記実行部は、前記実行コマンドが受信部により受信された場合、前記受信された動き情報または姿勢の検知情報に応じて選択され得る、前記複数の座標範囲のうちの1つの座標範囲に対応する操作コマンドを実行する。
Another information processing system according to the present technology includes an information processing device including an acquisition unit, a detection unit, a generation unit, and a transmission unit, a storage unit, a reception unit, and an operation target device including an execution unit. It comprises.
The acquisition unit acquires motion information detected by a first sensor when the operation device is operated to rotate by the user while the operation device is placed on the operation surface. The operation device includes a housing, a first sensor that detects movement of the housing, and a second sensor that can detect an external force applied to the housing.
The detection unit detects an attitude of the operation device operated by the user based on the acquired movement information.
In the second sensor, the generation unit is a region that is not in contact with the operation surface of the surface of the casing having the detected posture, and that an upper side region of the casing is pressed by the user. If detected by, an execution command is generated.
The transmission unit transmits the generated execution command and the acquired motion information or the detected posture detection information to the operation target device of the operation device.
The storage unit includes information on a plurality of coordinate ranges represented in a virtual plane area for defining a plurality of operation areas, and information on a plurality of operation commands respectively corresponding to the plurality of operation areas. Store in association with each other.
The receiving unit receives information transmitted from the information processing apparatus.
The execution unit corresponds to one coordinate range of the plurality of coordinate ranges that can be selected according to the received motion information or posture detection information when the execution command is received by the reception unit. Execute the operation command.

本技術に係る操作デバイスは、筺体と、第1のセンサと、第2のセンサと、取得部と、記憶部と、検知部と、生成部と、送信部とを具備する。
前記筺体は、複数の操作領域を有する表面を含む。
前記第1のセンサは、前記筺体の動きを検出する。
前記第2のセンサは、前記複数の操作領域に対する外力を検出可能である。
前記取得部は、操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得する。
前記記憶部は、前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する。
前記検知部は、前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する。
前記生成部は、前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成する。
前記送信部は、少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する。
The operation device according to the present technology includes a housing, a first sensor, a second sensor, an acquisition unit, a storage unit, a detection unit, a generation unit, and a transmission unit.
The housing includes a surface having a plurality of operation areas.
The first sensor detects the movement of the housing.
The second sensor can detect an external force with respect to the plurality of operation areas.
The acquisition unit acquires motion information detected by the first sensor when the user operates the operating device to rotate with the operating device placed on the operating surface.
The storage unit stores information on a plurality of postures of the operation device for defining the plurality of operation areas, and information on a plurality of operation commands respectively corresponding to the plurality of operation areas. .
The detection unit detects an attitude of the operation device operated by the user based on the acquired movement information.
In the second sensor, the generation unit is a region that is not in contact with the operation surface of the surface of the casing having the detected posture, and that an upper side region of the casing is pressed by the user. If detected by the above, an operation command corresponding to posture information that defines an operation region located at a predetermined position on the surface of the housing among the plurality of operation regions is generated.
The transmission unit transmits at least the generated operation command to an operation target device of the operation device.

本技術に係る情報処理方法は。複数の操作領域を有する表面を含む筺体と、前記筺体の動きを検出する第1のセンサと、前記複数の操作領域に対する外力を検出可能な第2のセンサとを有する操作デバイスの情報処理装置が実行する方法である。
前記情報処理方法は、前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶することを含む。
前記操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報が取得される。
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢が検知される。
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドが生成される。
少なくとも前記生成された操作コマンドが、前記操作デバイスの操作対象機器へ送信される。
Information processing method according to the present technology. An information processing apparatus for an operation device, comprising: a housing including a surface having a plurality of operation regions; a first sensor that detects movement of the housing; and a second sensor that can detect an external force applied to the plurality of operation regions. It is a method to execute.
The information processing method stores information on a plurality of postures of the operation device for defining each of the plurality of operation areas and information on a plurality of operation commands respectively corresponding to the plurality of operation areas. Including doing.
In a state where the operation device is placed on the operation surface, when the user operates the operation device to rotate, motion information detected by the first sensor is acquired.
Based on the acquired movement information, the attitude of the operation device operated by the user is detected.
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. Of the plurality of operation areas, an operation command corresponding to information on a posture that defines an operation area located at a predetermined position on the surface of the casing in the upper side area is generated.
At least the generated operation command is transmitted to the operation target device of the operation device.

本出願人は、「表面を有し、〜であって、」の前提部分を、従来の技術を意図して記載したのではなく、この前提部分の記載は、本技術の内容の理解を容易にするための記載である。   The present applicant did not intend to describe the premise of “having a surface, which is,” with the intention of the prior art, but the description of the premise makes it easy to understand the contents of the present technology. It is a description for making.

以上、本技術によれば、ユーザーの操作性を向上させることができる。   As described above, according to the present technology, it is possible to improve user operability.

図1は、本技術の一実施形態に係る情報処理システムを示す図である。FIG. 1 is a diagram illustrating an information processing system according to an embodiment of the present technology. 図2は、操作デバイスのハードウェアの構成を示す図である。FIG. 2 is a diagram illustrating a hardware configuration of the operation device. 図3は、表示デバイスのハードウェアの構成を示す図である。FIG. 3 is a diagram illustrating a hardware configuration of the display device. 図4は、操作デバイスの各センサの検出軸及びこれらの相対的な配置を説明するための図である。FIG. 4 is a diagram for explaining the detection axes of the sensors of the operation device and their relative arrangement. 図5は、ローカル座標系とグローバル座標系の関係を示す図である。FIG. 5 is a diagram showing the relationship between the local coordinate system and the global coordinate system. 図6は、操作デバイスによる処理を示すフローチャートである。FIG. 6 is a flowchart showing processing by the operation device. 図7は、図6における演算処理の原理を説明するための図である。FIG. 7 is a diagram for explaining the principle of the arithmetic processing in FIG. 図8は、図6における演算処理の原理を説明するための図である。FIG. 8 is a diagram for explaining the principle of the arithmetic processing in FIG. 図9は、ユーザーによる操作デバイスの基本的な操作方法を説明するための図である。FIG. 9 is a diagram for explaining a basic operation method of the operation device by the user. 図10A及びBは、操作デバイスによる操作例1を説明するための図である。10A and 10B are diagrams for explaining an operation example 1 by the operation device. 図11は、姿勢の情報である角度範囲の情報に、操作内容を設定する場合の設定方法の原理を説明するための図である。FIG. 11 is a diagram for explaining the principle of the setting method when setting the operation content in the information on the angle range, which is the posture information. 図12は、操作デバイスによる操作例2を説明するための図である。FIG. 12 is a diagram for explaining an operation example 2 by the operation device. 図13は、操作デバイスによる操作例3を説明するための図である。FIG. 13 is a diagram for explaining an operation example 3 by the operation device. 図14は、操作デバイスによる操作例4を説明するための図である。FIG. 14 is a diagram for explaining an operation example 4 by the operation device. 図15Aは、操作デバイスによる操作例5を説明するための図である。図15Bは、操作デバイスによる操作例5を説明するための図である。FIG. 15A is a diagram for explaining an operation example 5 by the operation device. FIG. 15B is a diagram for explaining an operation example 5 by the operation device. 図16は、操作デバイスによる操作例7を説明するための図である。FIG. 16 is a diagram for explaining an operation example 7 by the operation device. 図17は、本技術の他の実施形態に係る操作デバイスを示し、操作例を説明するための図である。FIG. 17 is a diagram illustrating an operation example of an operation device according to another embodiment of the present technology. 図18は、図17に示した操作デバイスの操作例を説明するための図である。FIG. 18 is a diagram for describing an operation example of the operation device illustrated in FIG. 17. 図19は、図17に示した操作ステップにおける操作領域の検出原理を説明するための図である。FIG. 19 is a diagram for explaining the principle of operation region detection in the operation step shown in FIG. 図20A及びBは、偏心した重心を持つ操作デバイスについての他の例を示す。20A and 20B show another example for an operating device having an eccentric center of gravity.

以下、図面を参照しながら、本技術の実施形態を説明する。   Hereinafter, embodiments of the present technology will be described with reference to the drawings.

[情報処理システムの構成]   [Configuration of information processing system]

図1は、本技術の一実施形態に係る情報処理システムを示す図である。   FIG. 1 is a diagram illustrating an information processing system according to an embodiment of the present technology.

この情報処理システムは、ユーザーにより操作される操作デバイス10と、この操作デバイス10から送信された操作情報を受信して、その情報に基づいて表示処理を実行する表示デバイス50とを備える。操作デバイス10と表示デバイス50とは電気的に接続されており、本実施形態では、赤外線や電波等の無線により通信が行われる。   This information processing system includes an operation device 10 operated by a user, and a display device 50 that receives operation information transmitted from the operation device 10 and executes display processing based on the information. The operation device 10 and the display device 50 are electrically connected, and in this embodiment, communication is performed by radio such as infrared rays or radio waves.

操作デバイス10の情報処理を実現する部分が、情報処理装置として機能する。表示デバイス50は、操作対象機器として機能する。   A part that realizes information processing of the operation device 10 functions as an information processing apparatus. The display device 50 functions as an operation target device.

操作デバイス10は、人が手で握ることができる程度の大きさに形成され、例えば実質的に球形状をなしている。操作デバイス10の形状は、球形に限られず、ユーザーが操作デバイス10の向きや姿勢を認識できるような形状(球形以外の形状)であってもよい。ユーザーの操作デバイス10を用いた操作により、後述するように、表示デバイス50により表示されたメニュー画面等の各項目を選択し指定することができる。   The operation device 10 is formed in a size that can be grasped by a hand, and has, for example, a substantially spherical shape. The shape of the operation device 10 is not limited to a spherical shape, and may be a shape that allows the user to recognize the orientation and orientation of the operation device 10 (a shape other than a spherical shape). As will be described later, each item such as a menu screen displayed by the display device 50 can be selected and designated by the user's operation using the operation device 10.

図2は、操作デバイス10のハードウェアの構成を示す図である。操作デバイス10は、CPUとして機能するMCU(Micro Control Unit)1、電源2、RAM3、ROM4、通信機9、加速度センサ5、角速度センサ6、磁気センサ7、圧力センサ8等を備える。加速度センサ5、角速度センサ6、磁気センサ7は、動きセンサ(第1のセンサ)として機能し、これらのセンサ5〜7のうち少なくとも1つのセンサにより検出される、加速度、角速度及び磁気強度のうち少なくとも1つの情報は、動き情報として機能する。   FIG. 2 is a diagram illustrating a hardware configuration of the operation device 10. The operation device 10 includes an MCU (Micro Control Unit) 1 that functions as a CPU, a power supply 2, a RAM 3, a ROM 4, a communication device 9, an acceleration sensor 5, an angular velocity sensor 6, a magnetic sensor 7, a pressure sensor 8, and the like. The acceleration sensor 5, the angular velocity sensor 6, and the magnetic sensor 7 function as a motion sensor (first sensor) and are detected by at least one of these sensors 5 to 7 out of acceleration, angular velocity, and magnetic intensity. At least one piece of information functions as motion information.

また、操作デバイス10は、図示しない書き換え可能なメモリ等を備えている。MCU1の代わりとして、例えばFPGA(Field Programmable Gate Array)等のようなプログラム可能なハードウェアが用いられてもよい。   Further, the operation device 10 includes a rewritable memory or the like (not shown). As an alternative to the MCU 1, programmable hardware such as an FPGA (Field Programmable Gate Array) may be used.

角速度センサ6としては、例えばコリオリ力を利用して角速度そのものを検出するデバイスが用いられる。   As the angular velocity sensor 6, for example, a device that detects the angular velocity itself using Coriolis force is used.

通信機9は、ここではMCU1で生成された情報を送信する、主に送信機として機能する。   Here, the communication device 9 mainly functions as a transmitter that transmits information generated by the MCU 1.

ROM4または図示しないメモリには、本技術を実現するために必要なソフトウェアが格納されている。   The ROM 4 or a memory (not shown) stores software necessary for realizing the present technology.

これらのハードウェアは、球形の筐体11内に、筐体11に対して固定されるようにして配置されている。筺体11の表面は、上記のように球面形状を有している。   These hardware are arranged in a spherical casing 11 so as to be fixed to the casing 11. The surface of the casing 11 has a spherical shape as described above.

圧力センサ8は、例えば筐体11の表面付近に複数取り付けられている。これらの圧力センサ8は、筺体11の表面に対する外力を検出するセンサ(第2のセンサ)として機能する。   For example, a plurality of pressure sensors 8 are attached near the surface of the housing 11. These pressure sensors 8 function as sensors (second sensors) that detect external forces on the surface of the casing 11.

圧力センサ8は、例えば半球部分で等角度間隔で少なくとも4つ設けられている(全球で8つ)。しかし、圧力センサ8の数や配置は適宜設定可能であり、圧力センサ8は、ユーザーがどこの位置を押しても、その力を検出できるように配置されている。また、圧力センサ8は、ユーザーがどこの位置を押しても、その加圧位置を所定の精度で検出されるようになっている。   For example, at least four pressure sensors 8 are provided at equiangular intervals in the hemispherical portion (eight in the whole sphere). However, the number and arrangement of the pressure sensors 8 can be set as appropriate, and the pressure sensors 8 are arranged so that the force can be detected no matter where the user presses. Further, the pressure sensor 8 is configured to detect the pressed position with a predetermined accuracy regardless of the position pressed by the user.

圧力センサとしては、例えばひずみゲージ、圧電センサ等が用いられる。   For example, a strain gauge, a piezoelectric sensor, or the like is used as the pressure sensor.

図3は、表示デバイス50のハードウェアの構成を示す図である。表示デバイス50は、一般的なコンピュータと同様に、CPU53、ROM54及びRAM55を備え、また、表示部52、通信部56及び記憶部57を有する。通信部56は、ここでは主に受信機として機能する。記憶部57は、典型的にはROM54やRAM55に対して補助的な(2次的な)記憶部である。   FIG. 3 is a diagram illustrating a hardware configuration of the display device 50. The display device 50 includes a CPU 53, a ROM 54, and a RAM 55, as well as a general computer, and also includes a display unit 52, a communication unit 56, and a storage unit 57. Here, the communication unit 56 mainly functions as a receiver. The storage unit 57 is typically an auxiliary (secondary) storage unit for the ROM 54 and the RAM 55.

なお、この表示デバイス50は、表示部52と、操作デバイス10から送信された情報を受信して、その表示のための画像を生成して出力する機器(操作対象機器)とが一体となった構成を有している。しかし、これらは別体で有線または無線により通信できるように互いに接続されていてもよい。   The display device 50 is integrated with the display unit 52 and a device (operation target device) that receives the information transmitted from the operation device 10 and generates and outputs an image for display. It has a configuration. However, they may be connected to each other so that they can be communicated separately by wire or wirelessly.

表示デバイス50のROM54や記憶部57には、本技術を実現するためのソフトウェア等が格納されている。   The ROM 54 and the storage unit 57 of the display device 50 store software for realizing the present technology.

この情報処理システムでは、典型的には、操作デバイス10の各センサ5〜7で検出され(MCU1でそれが加工されて得られた)情報と、MCU1の演算により生成された操作コマンドの情報が、通信機9(図2参照)を介して表示デバイス50に送信される。この場合、MCU1及び通信機9のうち少なくとも一方は、送信部として機能する。そして、表示デバイス50がそれらの情報を、通信部56(図3参照)を介して受信し、それらの情報に基づき所定の処理を実行する。   Typically, in this information processing system, information detected by the sensors 5 to 7 of the operation device 10 (obtained by processing it with the MCU 1) and information of operation commands generated by the calculation of the MCU 1 are included. And transmitted to the display device 50 via the communication device 9 (see FIG. 2). In this case, at least one of the MCU 1 and the communication device 9 functions as a transmission unit. Then, the display device 50 receives the information via the communication unit 56 (see FIG. 3), and executes a predetermined process based on the information.

図4は、操作デバイス10の各センサの検出軸及びこれらの相対的な配置を説明するための図である。加速度センサ5、角速度センサ6及び磁気センサ7は、すべて、直交3軸の検出軸をそれぞれ有している。すなわち、加速度センサ5は、3つの検出軸に対応するセンサ(5a,5b,5c)を有する。角速度センサ6及び磁気センサ7も同様に、センサ(6a,6b,6c)、(7a,7b,7c)をそれぞれ有する。   FIG. 4 is a diagram for explaining the detection axes of the sensors of the operation device 10 and their relative arrangement. The acceleration sensor 5, the angular velocity sensor 6, and the magnetic sensor 7 all have three orthogonal detection axes. That is, the acceleration sensor 5 has sensors (5a, 5b, 5c) corresponding to three detection axes. Similarly, the angular velocity sensor 6 and the magnetic sensor 7 have sensors (6a, 6b, 6c) and (7a, 7b, 7c), respectively.

例えば、これらセンサ5、6及び7のすべてが共通の1つのパッケージにパッケージングされている。あるいは、これらセンサ5、6及び7が別々のパッケージングでパッケージされ、共通の1つのセンサ基板20(図5、7等を参照)上に搭載されている。   For example, all of these sensors 5, 6 and 7 are packaged in a common package. Alternatively, these sensors 5, 6 and 7 are packaged by separate packaging and mounted on a common sensor substrate 20 (see FIGS. 5, 7 and the like).

図5は、ローカル座標系とグローバル座標系の関係を示す図である。   FIG. 5 is a diagram showing the relationship between the local coordinate system and the global coordinate system.

地面上には表示デバイス50が置かれている。ここでは、この地面あるいは表示デバイス50に固定された座標系をグローバル座標系という。そして、このグローバル座標系に対して自由に動くことが可能な座標であって、操作デバイス10のセンサ基板20に対して固定された座標系を、ローカル座標系という。センサ基板20とは、上記したように、加速度センサ5、角速度センサ6及び磁気センサ7が搭載された共通の基板である。   A display device 50 is placed on the ground. Here, the coordinate system fixed to the ground or the display device 50 is referred to as a global coordinate system. A coordinate system that can freely move with respect to the global coordinate system and is fixed to the sensor substrate 20 of the operation device 10 is referred to as a local coordinate system. As described above, the sensor substrate 20 is a common substrate on which the acceleration sensor 5, the angular velocity sensor 6, and the magnetic sensor 7 are mounted.

説明の便宜のため、以降では、グローバル座標系を大文字(X、Y、Z)で表し、ローカル座標系を小文字(x、y、z)で表す。しかし、文章を理解しやすくするため、できるだけ「ローカル」、「グローバル」の表現を用いて説明する。グローバル座標系において地面をX-Y平面とし、ローカル座標系の基板の主面に平行な面をx-y平面とする。   For convenience of explanation, the global coordinate system is represented by uppercase letters (X, Y, Z) and the local coordinate system is represented by lowercase letters (x, y, z). However, in order to make the sentence easier to understand, explanations will be made using expressions of “local” and “global” as much as possible. In the global coordinate system, the ground is the XY plane, and the plane parallel to the principal plane of the local coordinate system is the xy plane.

[操作デバイスによる処理]   [Process by operation device]

図6は、操作デバイス10による処理を示すフローチャートである。この処理は、操作デバイス10の記憶デバイス(ROMやRAM)に記憶されたソフトウェア資源と、MCU1等のハードウェア資源との協働により実現される。以下では、便宜的に、処理の主体をMCU1として説明する。   FIG. 6 is a flowchart showing processing by the operation device 10. This process is realized by cooperation between software resources stored in the storage device (ROM or RAM) of the operation device 10 and hardware resources such as the MCU 1. Hereinafter, for the sake of convenience, the subject of processing will be described as MCU1.

操作デバイス10の外形は球形なので、MCU1は、操作デバイス10の上下左右は決められていないため、現時点での操作デバイス10の姿勢を認識する必要がある。MCU1は各センサ5〜7で検出された情報を取得し、この場合、MCU1は取得部として機能する。   Since the outer shape of the operation device 10 is a spherical shape, the MCU 1 needs to recognize the posture of the operation device 10 at the present time because the upper, lower, left, and right of the operation device 10 are not determined. MCU1 acquires the information detected by each sensor 5-7, and MCU1 functions as an acquisition part in this case.

操作デバイス10による操作の開始時に、ステップ201では、加速度センサ5で検出された加速度(特にx及びy軸方向における加速度(ax,ay))の情報に基づき、操作デバイス10の、グローバルX及びY軸周りの初期姿勢角度がそれぞれ算出される。図7は、その演算処理の原理を説明するための図であり、センサ基板20の傾き(姿勢)がグローバル座標系において傾いている状態を示す図である。 At the start of the operation by the operation device 10, in step 201, based on the information on the acceleration detected by the acceleration sensor 5 (particularly, acceleration (a x , a y ) in the x and y axis directions), the global X And an initial posture angle around the Y axis are calculated. FIG. 7 is a diagram for explaining the principle of the arithmetic processing, and shows a state where the inclination (posture) of the sensor substrate 20 is inclined in the global coordinate system.

例えばグローバルY軸周りの初期姿勢角度、つまりX軸からの角度θxを算出する場合には、加速度axの情報に基づき、下の式1により演算される。式1において、図8に示すように、例えばx軸の加速度センサ5aで検出される重力1Gの値をAxGとし、センサ基板20が傾いた状態(加速度センサ5(5a)が傾いた状態)における、加速度センサ5aの値をaxとしている。 For example, when calculating the initial posture angle around the global Y axis, that is, the angle θ x from the X axis, it is calculated by the following expression 1 based on the information of the acceleration a x . In Equation 1, as shown in FIG. 8, for example, the value of gravity 1G detected by the x-axis acceleration sensor 5a is A xG and the sensor substrate 20 is tilted (the acceleration sensor 5 (5a) is tilted). in, and the value of the acceleration sensor 5a and a x.

同様に、加速度ayの情報に基づき、グローバルX軸周りの初期姿勢角度、つまりY軸からの角度θyが式2により演算される。重力1Gに対するy軸の加速度センサ5bの値をAyGとする。 Similarly, based on the information on the acceleration a y , the initial posture angle around the global X axis, that is, the angle θ y from the Y axis is calculated by Equation 2. The value of the y-axis acceleration sensor 5b with respect to gravity 1G is assumed to be AyG .

AxG、AyG:x、y軸の加速度センサ5a、5bでそれぞれ検出される重力加速度1G
ax、ay、az:x、y、z軸の加速度センサ5a、5b、5cでそれぞれ検出されている現在の値(ローカル加速度)
θx、θy:グローバル座標系でのセンサ基板のX、Y軸からの初期姿勢角度(θxは、Y軸周りの角度(ピッチ角)、θyは、X軸周りの角度(ロール角)である。)
A xG , A yG : Gravitational acceleration 1G detected by the x and y axis acceleration sensors 5a and 5b, respectively.
a x , a y , a z : Current values (local acceleration) detected by the x, y, z axis acceleration sensors 5a, 5b, 5c, respectively.
θ x , θ y : Initial posture angle of the sensor board in the global coordinate system from the X and Y axes (θ x is the angle around the Y axis (pitch angle), θ y is the angle around the X axis (roll angle) ).)

なお、式1及び2では正弦が用いられたが、余弦や他の演算方法によっても初期姿勢角度を算出することができる。   Although the sine is used in the equations 1 and 2, the initial posture angle can be calculated also by a cosine or another calculation method.

次に、ステップ202では、ステップ201で算出された情報、及び、磁気センサ7で検出されたローカル座標系における各軸方向での磁気強度の情報に基づき、操作デバイス10のグローバルZ軸周りの初期姿勢角度(方位)が算出される。   Next, in step 202, based on the information calculated in step 201 and the magnetic intensity information in each axial direction in the local coordinate system detected by the magnetic sensor 7, the initial value around the global Z axis of the operating device 10 is displayed. An attitude angle (azimuth) is calculated.

この演算には、下の式3が用いられる。式3では、x、y、z軸の磁気センサ7a、7b、7cでそれぞれ検出された磁気強度(ローカル磁気強度)をhx、hy、hzとする。また、演算により求められるグローバルX、Y、Z軸方向の磁気強度(グローバル磁気強度)をHx、Hy、Hzとする。 The following formula 3 is used for this calculation. In Expression 3, the magnetic intensities (local magnetic intensities) detected by the x, y, and z axis magnetic sensors 7a, 7b, and 7c are h x , h y , and h z , respectively. In addition, the magnetic strengths (global magnetic strengths) in the global X, Y, and Z axis directions obtained by the calculation are H x , H y , and H z .

hx、hy、hz:ローカル座標系におけるx、y、z軸方向の磁気強度(ローカル磁気強度)
Hx、Hy:グローバルX、Y軸方向の磁気強度(グローバル磁気強度)
θz:グローバルZ軸周りの初期姿勢角度(方位)(θzは、ヨー角である。)
h x , h y , h z : magnetic strength in the x, y, z axis directions in the local coordinate system (local magnetic strength)
H x , Hy : Global X and Y axis magnetic strength (global magnetic strength)
θ z : initial posture angle (azimuth) around the global Z axis (θ z is the yaw angle)

このように地磁気を検出する磁気センサ7を用いることにより、操作デバイス10は、グローバルZ軸周りでのセンサ基板20の方位を認識することができる。式1〜3を演算する場合において、MCU1及びこの演算内容が記述されたソフトウェアは、初期姿勢角度算出部として機能する。   By using the magnetic sensor 7 that detects geomagnetism in this way, the operation device 10 can recognize the orientation of the sensor substrate 20 around the global Z axis. In the case of calculating Equations 1 to 3, the MCU 1 and software describing the calculation contents function as an initial posture angle calculation unit.

以上のようにして、ステップ201及び202の演算処理により、操作デバイス10は、グローバル座標系における、センサ基板20の初期の姿勢(X、Y、Z軸に対する傾き)を認識することができる。つまり、ユーザーが操作デバイス10の握り方及びその方向等を意識せずとも、操作デバイス10が自らの姿勢を認識することができる。その結果、ユーザーは、2次元の面内で任意の姿勢にある操作デバイス10を用いて操作を開始することができる。   As described above, the operation device 10 can recognize the initial posture (inclination with respect to the X, Y, and Z axes) of the sensor substrate 20 in the global coordinate system by the arithmetic processing in steps 201 and 202. That is, the operation device 10 can recognize its own posture without the user being aware of how to grip the operation device 10 and its direction. As a result, the user can start the operation using the operation device 10 in an arbitrary posture within the two-dimensional plane.

次に、ステップ203では、ステップ201及び202で算出された初期姿勢角度(θx、θy、θz)の情報に基づき、操作開始時に、つまり操作開始直後に角速度センサ6で検出された角速度が、グローバル座標系におけるグローバル角速度に変換される。すなわちこれは回転座標変換である。この演算処理には、式4が用いられる。この場合、MCU1及びこの演算内容が記述されたソフトウェアは、座標変換部として機能する。 Next, in step 203, the angular velocity detected by the angular velocity sensor 6 at the start of the operation, that is, immediately after the start of the operation, based on the information of the initial posture angles (θ x , θ y , θ z ) calculated in steps 201 and 202. Is converted to a global angular velocity in the global coordinate system. This is a rotational coordinate transformation. Formula 4 is used for this calculation process. In this case, the MCU 1 and the software describing the calculation contents function as a coordinate conversion unit.

wx、wy、wz:ローカルx、y、z軸周りの角速度(ローカル角速度)
Wx、Wy、Wz:グローバルX、Y、Z軸周りの角速度(グローバル角速度)
w x , w y , w z : Angular velocity around the local x, y, z axis (local angular velocity)
W x , W y , W z : Angular velocities around the global X, Y, and Z axes (global angular velocities)

ステップ204では、このようにして算出されたグローバル角速度を用いて、グローバルX軸周りの角度Rxが算出される。つまりグローバル角度(のX軸方向成分)が算出される。この演算処理には、式5が用いられる。この演算処理は台形積分法を用いている。グローバルY、Z軸周りの角度Ry、Rzも、Rxと同様に算出される。このステップ204の処理の意味は、初期姿勢角度(θx、θy、θz)を新たな姿勢角度(Rx、Ry、Rz)に変更する、つまり姿勢角度を更新することである。この場合、MCU1及びこの演算内容が記述されたソフトウェアは、更新部として機能する。 In step 204, an angle Rx around the global X axis is calculated using the global angular velocity thus calculated. That is, the global angle (its X-axis direction component) is calculated. Formula 5 is used for this calculation process. This calculation process uses a trapezoidal integration method. The angles R y and R z around the global Y and Z axes are also calculated in the same manner as R x . The meaning of the processing in step 204 is to change the initial posture angle (θ x , θ y , θ z ) to a new posture angle (R x , R y , R z ), that is, update the posture angle. . In this case, the MCU 1 and the software in which the calculation contents are described function as an update unit.

Rx:グローバル座標系におけるX軸周りの角度(グローバル角度(グローバル姿勢角度))
(tn):n番目に得られた値を意味する
Δt =tn- tn-1
R x : Angle around the X axis in the global coordinate system (global angle (global attitude angle))
(t n ): means the nth value obtained Δt = t n -t n-1

このようにグローバル角度が算出されると、この情報が通信機9により、表示デバイス50に送信される(ステップ205)。現時点では、このグローバル角度は、初期の(つまり、操作開始時の)グローバル角度である。表示デバイス50は、この情報を受信する。表示デバイス50は、その初期のグローバル角度(Rx、Ry、Rz)のうち(Ry、Rx)に定数をそれぞれかけた値を、表示部52の画面内で、ポインターやその他の画像等を含む操作対象画像を生成するための座標値(X,Y)に割り当てる。このようにして、操作デバイス10の初期姿勢と、上記操作対象画像の初期位置や初期姿勢とが対応する。この場合、MCU1は、操作デバイスの姿勢の検知部として機能する。 When the global angle is calculated in this way, this information is transmitted to the display device 50 by the communication device 9 (step 205). At this time, this global angle is the initial (ie, at the start of the operation) global angle. The display device 50 receives this information. The display device 50 sets values obtained by multiplying (R y , R x ) by constants among the initial global angles (R x , R y , R z ) on the screen of the display unit 52 and other pointers and other values. Assigned to coordinate values (X, Y) for generating an operation target image including an image or the like. In this way, the initial posture of the operation device 10 corresponds to the initial position and initial posture of the operation target image. In this case, the MCU 1 functions as a posture detection unit for the operation device.

そして、表示デバイス50は、2回目以降のグローバル角度の情報を受信すると、そのグローバル角度に応じた、画面内での位置あるいは姿勢を持つ操作対象画像を表示部52に表示する。この場合、ユーザーの操作デバイス10の回転角度に対応して、操作対象画像の位置が変化したり、操作対象画像自体が変化したりする。   When the display device 50 receives information on the second and subsequent global angles, the display device 50 displays an operation target image having a position or orientation on the screen according to the global angle on the display unit 52. In this case, the position of the operation target image changes or the operation target image itself changes according to the rotation angle of the user's operation device 10.

このように、MCU1は、操作デバイス10の動きに応じたグローバル角度の情報を生成し続け、操作デバイス10の姿勢を認識し続ける。この場合も、MCU1は、操作デバイスの姿勢の検知部として機能する。   In this way, the MCU 1 continues to generate information on the global angle according to the movement of the operation device 10 and continues to recognize the attitude of the operation device 10. Also in this case, the MCU 1 functions as a posture detection unit of the operation device.

なお、式5のような台形積分法に限られず、中点法やシンプソン法等、各種の積分処理によっても、グローバル角度を求めることができる。   Note that the global angle can be obtained by various integration processes such as the midpoint method and the Simpson method, without being limited to the trapezoidal integration method as shown in Equation 5.

ここで初期には、ステップ203では、座標変換部は、初期姿勢角度(θx、θy、θz)の情報に基づき、ローカル角速度(初期値)について座標変換処理を実行した。しかし、2回目以降(初期以外)のステップ203の処理では、座標変換部は、ステップ204で算出されたグローバル角度(Rx、Ry、Rz)の情報に基づき、ローカル角速度(2回目以降の値)について座標変換処理を実行する。この演算処理には、下の式6が用いられる。 Here, initially, in step 203, the coordinate conversion unit executes the coordinate conversion process for the local angular velocity (initial value) based on the information on the initial posture angles (θ x , θ y , θ z ). However, in the processing of step 203 after the second time (other than the initial time), the coordinate conversion unit determines the local angular velocity (after the second time) based on the information on the global angles (R x , R y , R z ) calculated in step 204 The coordinate conversion process is executed for the value of. The following formula 6 is used for this calculation process.

操作デバイス10のグローバル角度は、徐々に(刻々と)変わっていく。したがって、具体的には、式6では、下記の式に示すようにグローバル角度が逐次加算された値に基づき、回転座標変換が行われる。   The global angle of the operation device 10 changes gradually (every moment). Therefore, specifically, in Equation 6, rotational coordinate conversion is performed based on a value obtained by sequentially adding global angles as shown in the following equation.

Rx' =Rx(tn)+Rx(tn+1)
Ry' =Ry(tn)+Ry(tn+1)
Rz' =Rz(tn)+Rz(tn+1)
R x '= R x (t n ) + R x (t n + 1 )
R y '= R y (t n ) + R y (t n + 1 )
R z '= R z (t n ) + R z (t n + 1 )

しかし、表示デバイス50による画像表示のためのソフトウェアの仕様によっては、式6において、(Rx'、Ry'、Rz')の代わりに、(Rx、Ry、Rz)が用いられてもよい。 However, (R x , R y , R z ) is used instead of (R x ′, R y ′, R z ′) in Equation 6 depending on the software specifications for image display by the display device 50. May be.

以上のように、最初に初期姿勢角度が算出されれば、2回目以降の演算ではその初期姿勢角度を用いずに、ステップ204で算出されたグローバル角度が用いられる。以下、この理由について説明する。   As described above, if the initial posture angle is calculated first, the global angle calculated in step 204 is used in the second and subsequent calculations without using the initial posture angle. Hereinafter, this reason will be described.

ユーザーによる操作デバイス10の操作開始時には、加速度センサ5により得られた加速度を含む情報に基づき算出される初期姿勢角度の情報を用いてローカル角速度がグローバル角速度に変換される。つまり、操作が開始される瞬間には、加速度センサ5には実質的に重力加速度のみが検出され、この重力加速度を含む情報に基づき初期姿勢角度が算出され、その初期姿勢角度に基づき座標変換が行われる。   When the user starts operating the operation device 10, the local angular velocity is converted into the global angular velocity using information on the initial posture angle calculated based on information including the acceleration obtained by the acceleration sensor 5. That is, at the moment when the operation is started, the acceleration sensor 5 substantially detects only the gravitational acceleration, the initial posture angle is calculated based on the information including the gravitational acceleration, and the coordinate conversion is performed based on the initial posture angle. Done.

しかし、その後のユーザーの操作中は、加速度センサ5では、重力加速度に、運動加速度(慣性加速度)が加えられた値が検出される。すなわち、ユーザーの操作中は、センサ基板20の姿勢は刻々と変わる。したがって、仮に、ユーザーの操作中に加速度センサ5で得られるこのような運動加速度を含む加速度に基づき姿勢角度を算出した場合、誤差が発生するおそれがある。   However, during subsequent user operations, the acceleration sensor 5 detects a value obtained by adding motion acceleration (inertial acceleration) to gravity acceleration. That is, during the user's operation, the posture of the sensor substrate 20 changes every moment. Therefore, if the posture angle is calculated based on the acceleration including the motion acceleration obtained by the acceleration sensor 5 during the user's operation, an error may occur.

そこで本実施形態では、初期値として取得されたローカル角速度より後に取得されたローカル角速度については、運動加速度の情報を含まない情報、つまり、少なくとも1度、ローカル角速度を用いて更新された姿勢角度の情報(ステップ203及び204を少なくとも1度経て得られる情報)に基づき、変換処理が実行される。ローカル角速度値は、運動加速度には影響されない値だからである。   Therefore, in the present embodiment, the local angular velocity acquired after the local angular velocity acquired as the initial value is information that does not include motion acceleration information, that is, the posture angle updated using the local angular velocity at least once. Conversion processing is executed based on information (information obtained through steps 203 and 204 at least once). This is because the local angular velocity value is not affected by the motion acceleration.

このような演算処理によれば、ユーザーによる操作デバイス10の操作中において発生する運動加速度による影響が、操作デバイス10の姿勢角度の演算に及んでその演算に誤差を発生させる、といった事態を抑制することができる。   According to such a calculation process, it is possible to suppress a situation in which the influence of the motion acceleration generated during the operation of the operation device 10 by the user affects the calculation of the attitude angle of the operation device 10 and causes an error in the calculation. be able to.

以上のようにして、MCU1は、操作デバイス10のグローバル座標系での姿勢を検知することができる。これによりMCU1は、後述するように、筺体の表面のうち操作面に接触しない領域であって、筺体の上部側領域(後述)の3次元内での位置を検知することができる。また、MCU1が、操作デバイス10の姿勢を検知することができることにより、上記のように表示デバイス50は、表示部52に表示させる操作対象画像の変化を実行することができる。   As described above, the MCU 1 can detect the attitude of the operation device 10 in the global coordinate system. Thereby, as will be described later, the MCU 1 is a region that does not come into contact with the operation surface on the surface of the housing, and can detect the position of the upper side region (described later) of the housing in the three dimensions. Further, since the MCU 1 can detect the attitude of the operation device 10, the display device 50 can change the operation target image displayed on the display unit 52 as described above.

本処理では、角速度センサ6による出力が実質的に0になる、すなわち、操作デバイス10の動きが実質的に停止するまでは、MCU1は、ステップ204で算出したグローバル角度を用いて、ステップ203におけるグローバル角速度を算出する。操作デバイス10の動きが実質的に停止した後の処理は、ステップ201から始まる。   In this process, until the output from the angular velocity sensor 6 becomes substantially 0, that is, until the movement of the operation device 10 substantially stops, the MCU 1 uses the global angle calculated in step 204 to Calculate global angular velocity. Processing after the movement of the operation device 10 substantially stops starts from Step 201.

なお、ステップ205で算出されたグローバル角度(Rx、Ry、Rz)の情報は、次のような処理にも用いられる。すなわち、座標変換手段は、式6と同様にグローバル角度の情報を用いて、ローカル加速度をグローバル加速度に変換する。この演算処理は、下の式7が用いられる。ユーザーがこの操作デバイス10を操作面から離し、空中で並進操作する時に、MCU1がこの式7の演算処理を実行する。これにより、ユーザーは操作デバイス10を空間操作デバイスとしても利用することができる。
Ax、Ay、Az:グローバルX、Y、Z軸まわりの加速度(グローバル加速度)
このように、ローカル加速度をグローバル加速度に変換する処理においても、初期以外においては、座標変換手段は、グローバル角度の情報に基づいて座標変換を実行する。
The information on the global angles (R x , R y , R z ) calculated in step 205 is also used for the following processing. That is, the coordinate conversion means converts the local acceleration into the global acceleration by using the global angle information as in Expression 6. This calculation process uses the following Expression 7. When the user moves the operation device 10 away from the operation surface and performs a translation operation in the air, the MCU 1 executes the calculation process of Expression 7. Thereby, the user can use the operation device 10 as a space operation device.
A x , A y , A z : Acceleration around the global X, Y, and Z axes (global acceleration)
As described above, also in the process of converting the local acceleration into the global acceleration, the coordinate conversion unit performs the coordinate conversion based on the information on the global angle except in the initial stage.

[操作デバイスの操作方法]   [Operation method of operation device]

(基本的な操作方法)
図9は、ユーザーによる操作デバイス10の基本的な操作方法を説明するための図である。
(Basic operation method)
FIG. 9 is a diagram for explaining a basic operation method of the operation device 10 by the user.

本技術では、図9の上に示すように、操作デバイス10が操作面90に置かれて、その筺体11が操作面90に接触した状態で操作デバイス10が回転するように操作される。以下、この操作を「第1の操作ステップ」と呼ぶ場合もある。   In the present technology, as illustrated in the upper part of FIG. 9, the operation device 10 is placed on the operation surface 90, and the operation device 10 is operated to rotate in a state where the casing 11 is in contact with the operation surface 90. Hereinafter, this operation may be referred to as a “first operation step”.

ここで回転とは、操作デバイス10が1回転しない回転、つまり360度未満の回転(傾斜)も、もちろん含む意味である。操作面90は、床面、テーブル面、デスク面等、何でもよく、これらが平面である必要はない。   Here, the rotation means that the operation device 10 does not rotate once, that is, includes rotation (tilt) of less than 360 degrees. The operation surface 90 may be anything such as a floor surface, a table surface, a desk surface, etc., and these need not be flat.

ユーザーは、表示デバイス50の表示部52を見ながら、上記のように操作デバイス10を回転させる。これにより、後述するように、例えば表示部52に表示されるメニューの項目を選択することができる。   The user rotates the operation device 10 as described above while looking at the display unit 52 of the display device 50. Thereby, as will be described later, for example, a menu item displayed on the display unit 52 can be selected.

そして、ユーザーは、図9の左下、下中央または右下に示すように、筺体11の、操作面90に接触しない領域であって筺体11の上部側領域の少なくとも一部を押すことにより、選択した項目を指定(あるいは実行)する。以下、この操作を、「第2の操作ステップ」と呼ぶ場合もある。   Then, as shown in the lower left, lower center, or lower right of FIG. 9, the user selects by pressing at least a part of the upper region of the casing 11 that is an area that does not contact the operation surface 90 of the casing 11. Specify (or execute) the selected item. Hereinafter, this operation may be referred to as a “second operation step”.

上部側領域とは、図9に示した状態において、筺体11の表面うち上半球の領域、あるいはそれより狭くそれよりさらに上部側にある領域である。   In the state shown in FIG. 9, the upper side region is a region of the upper hemisphere in the surface of the housing 11 or a region narrower than that and further on the upper side.

図9の左下に示した図では、ユーザーが筺体11の上部側領域を押さえることにより、圧力センサ8がその加圧力を検出している例を示している。   The figure shown in the lower left of FIG. 9 shows an example in which the pressure sensor 8 detects the applied pressure when the user presses the upper region of the housing 11.

図9の下中央に示した図では、ユーザーが筺体11の上部側領域を叩くことにより、加速度センサ5が、操作デバイス10に発生する加振力を検出する例を示している。このようにユーザーが筺体11を「叩く」行為は、力学的には「押す(力を加える)」行為と等価である。この場合、圧力センサ8に代えて、加速度センサによりその振動を検出してもよい。その場合、振動の有無を検出する振動センサとして機能する。   9 illustrates an example in which the acceleration sensor 5 detects the excitation force generated in the operation device 10 when the user hits the upper side region of the housing 11. In this way, the action of the user “hitting” the casing 11 is mechanically equivalent to the action of “pushing (applying force)”. In this case, the vibration may be detected by an acceleration sensor instead of the pressure sensor 8. In that case, it functions as a vibration sensor that detects the presence or absence of vibration.

図9の右下に示した図では、ユーザーが筺体11の上部側領域のうち所定の位置に位置する選択対象とする操作領域15に触れる例を示している。この「触れる」行為は、力学的には「押す」行為と等価であり、外力が加えられる行為と同等である。この場合、第2のセンサとして、圧力センサ8に代えて静電センサが用いられてもよい。   9 illustrates an example in which the user touches the operation area 15 to be selected that is located at a predetermined position in the upper area of the housing 11. This “touching” action is mechanically equivalent to a “pushing” action, and is equivalent to an action in which an external force is applied. In this case, an electrostatic sensor may be used as the second sensor instead of the pressure sensor 8.

以下、上記第1及び第2の操作ステップを用いた、各種の操作例を具体的に説明する。   Hereinafter, various operation examples using the first and second operation steps will be specifically described.

(操作例1)
図10A及びBは、操作デバイス10による操作例1を説明するための図である。
(Operation example 1)
10A and 10B are diagrams for explaining an operation example 1 by the operation device 10.

この操作例1に係る操作デバイス10の筺体11の表面は、複数の操作領域15を有する。この筺体11は、切頂二十面体に似た、サッカーボールのような形状を有し、5角形及び6角形で区画された面がそれぞれ操作領域15に相当する。   The surface of the housing 11 of the operation device 10 according to this operation example 1 has a plurality of operation areas 15. The housing 11 has a soccer ball-like shape similar to a truncated icosahedron, and the surfaces defined by pentagons and hexagons correspond to the operation areas 15, respectively.

なお、切頂二十面体における各正5角形及び各正6角形の面はそれぞれ平面で構成されるが、この操作デバイス10の筺体11の表面は実質的に球面で形成されている。しかしながら、この操作デバイス10の筺体11は、平面でなる正5角形及び正6角形で形成される切頂二十面体であってもよい。   In addition, although each regular pentagon and each regular hexagonal surface in the truncated icosahedron are configured by planes, the surface of the casing 11 of the operation device 10 is substantially formed by a spherical surface. However, the casing 11 of the operation device 10 may be a truncated icosahedron formed of a regular pentagon and a regular hexagon.

各操作領域15には、TVの放送局を選択するための"CH 1"、"CH 2"、・・・、ボリューム調整のための"VOL+"、"VOL-"等、各種の操作内容を表す文字がそれぞれ印刷されている。また、操作デバイス10のROM4または図示しないメモリには、各操作領域15をそれぞれ画定するための、操作デバイス10の複数の姿勢の情報(後述する角度範囲の情報)と、それら操作領域15にそれぞれ対応する複数の操作コマンドの情報とが対応付けられて記憶されている。操作コマンドとは、上述の選局、ボリューム調整等、その操作領域15に対応する各種の処理を実行するためのコマンドである。   Each operation area 15 has various operation contents such as “CH 1”, “CH 2”,... For selecting a TV broadcasting station, “VOL +”, “VOL-” for volume adjustment, and the like. Each character is printed. In addition, in the ROM 4 of the operation device 10 or a memory (not shown), information on a plurality of postures of the operation device 10 (information on angle ranges to be described later) for defining each operation region 15 and the operation regions 15 are provided. Information of a plurality of corresponding operation commands is stored in association with each other. The operation command is a command for executing various processes corresponding to the operation area 15 such as channel selection and volume adjustment described above.

各操作領域15をそれぞれ画定するための操作デバイス10の複数の姿勢の情報については後述する。   Information on a plurality of postures of the operation device 10 for defining each operation region 15 will be described later.

本実施形態では、ユーザーが、操作したい操作内容(選択しようとしている操作内容)を選択する場合、その操作内容に対応する操作領域15が、上部側領域のうち筺体11の表面の所定位置に位置するように、第1の操作ステップを行う。図6で説明したように、操作デバイス10はグローバル角度の情報を表示デバイス50に送信している。   In the present embodiment, when the user selects an operation content to be operated (operation content to be selected), the operation region 15 corresponding to the operation content is located at a predetermined position on the surface of the housing 11 in the upper side region. As shown, the first operation step is performed. As described with reference to FIG. 6, the operation device 10 transmits global angle information to the display device 50.

表示デバイス50はその情報を受信しており、これに基づき、その上部側領域のうち少なくとも一部の操作領域15に関連する関連画像58を生成し、これを表示のために出力している。この場合、CPU53は、出力部として機能する。このことを実現するために、表示デバイス50は、各操作領域15(または、各操作領域15をそれぞれ画定するための、操作デバイス10の複数の姿勢の情報)に対応した複数の関連画像58の情報を記憶しておけばよい。   The display device 50 receives the information, and generates a related image 58 related to at least a part of the operation area 15 in the upper area based on the information, and outputs the related image 58 for display. In this case, the CPU 53 functions as an output unit. In order to realize this, the display device 50 includes a plurality of related images 58 corresponding to each operation region 15 (or information on a plurality of postures of the operation device 10 for defining each operation region 15). You only have to memorize the information.

本技術の典型例としては、図10Aに示されている。ユーザーは、鉛直上向きに所定のチャンネル番号の操作領域15を位置させるように、すなわち3次元内における鉛直軸Vが通る位置を所定位置として、その位置に、ユーザーが選択しようとする操作内容に対応する操作領域15を位置させるように回転操作を行う。この時、表示デバイス50は、そのユーザーの回転操作による操作デバイス10の動きに応じて、鉛直上向きに位置する操作領域15(以下、これを鉛直操作領域15Vという。)に関連する関連画像58を生成し、これを表示のために出力する。   A typical example of this technique is shown in FIG. 10A. The user positions the operation area 15 with a predetermined channel number vertically upward, that is, the position through which the vertical axis V passes in three dimensions is set as the predetermined position, and the operation content to be selected by the user is corresponding to that position. The rotation operation is performed so as to position the operation area 15 to be operated. At this time, the display device 50 displays a related image 58 related to the operation region 15 positioned vertically upward (hereinafter referred to as the vertical operation region 15V) in accordance with the movement of the operation device 10 by the rotation operation of the user. Generate this and output it for display.

関連画像58としては、図10Aに示すように、筺体11に各操作領域15に印刷されている文字と実質的に同じ内容の画像であってもよいし、あるいは、それに関連する文字、記号等の画像であってもよい。関連画像58は、それが複数の操作領域15のうちユーザーが自身で選択しようとしている操作領域15を示す画像であることを、ユーザーが認識できるものであれば何でもよい。   As shown in FIG. 10A, the related image 58 may be an image having substantially the same content as the characters printed on the operation area 15 on the casing 11, or the characters, symbols, and the like related thereto. It may be an image. The related image 58 may be anything as long as the user can recognize that the related image 58 is an image showing the operation region 15 that the user intends to select from among the plurality of operation regions 15.

ここで、例えば操作デバイス10の電源2の投入直後には、上記したように図6に示したステップ201及び202において操作デバイス10の筺体11の姿勢が検知される。また、それ以降において、ユーザーにより第1の操作ステップが行われている場合、上記したように、MCU1はステップ203〜205の処理を繰り返して、操作デバイス10の筺体11の姿勢が検知される。   Here, for example, immediately after the power source 2 of the operation device 10 is turned on, the posture of the casing 11 of the operation device 10 is detected in steps 201 and 202 shown in FIG. 6 as described above. Further, after that, when the first operation step is performed by the user, as described above, the MCU 1 repeats the processes of steps 203 to 205 to detect the posture of the casing 11 of the operation device 10.

このように、MCU1は、任意の操作デバイス10の姿勢を検知することができ、これにより筺体11の上部側領域を特定することができる。つまり、MCU1は、現在の姿勢にある筺体11の表面のどの位置が上部に位置しているか、さらに広く言えば、筺体11の表面のどの位置が、3次元内でどの位置に位置しているかを特定することができる。これは、例えばグローバル座標軸とセンサ基板20のローカル座標軸とが一致している状態を基準として、上述のように、センサ基板20の傾き角度、つまり、グローバル角度(または初期姿勢角度)が算出されることにより可能となる。   Thus, MCU1 can detect the attitude | position of arbitrary operation devices 10, and can specify the upper side area | region of the housing 11 by this. That is, the MCU 1 is located at the upper part of the position of the surface of the housing 11 in the current posture, or more specifically, the position of the surface of the housing 11 is located at which position in three dimensions. Can be specified. For example, the inclination angle of the sensor substrate 20, that is, the global angle (or initial posture angle) is calculated as described above with reference to the state where the global coordinate axis and the local coordinate axis of the sensor substrate 20 coincide with each other. This is possible.

具体的には、MCU1は図10Aに示すように、その上部側領域のうち所定位置となる鉛直軸Vを通る操作領域15を画定する角度範囲の情報(つまり姿勢の情報)に対応する操作内容を特定する(操作コマンドを生成する)ことができる。   Specifically, as shown in FIG. 10A, the MCU 1 has operation contents corresponding to information on an angle range (that is, posture information) that defines an operation area 15 passing through the vertical axis V that is a predetermined position in the upper area. Can be specified (an operation command is generated).

次に、ユーザーによる第2の操作ステップが行われた場合(図10B参照)、MCU1は、圧力センサ8によりその押す操作による力が閾値を超えるか否かを判定する。   Next, when the 2nd operation step by a user is performed (refer FIG. 10B), MCU1 determines whether the force by the pressing operation by the pressure sensor 8 exceeds a threshold value.

この時、ユーザーが上部側領域を押す位置は、上部側領域(例えば上半球面)のうち任意の面積及び任意の位置でよい。   At this time, the position where the user presses the upper side region may be an arbitrary area and an arbitrary position in the upper side region (for example, the upper hemisphere).

ユーザーによる押す力が閾値を超えた場合、MCU1は、現在選択されている(表示デバイス50により表示されている)操作領域15、つまり、上部側領域の所定位置にある操作領域15を画定する姿勢の情報に対応する操作コマンドを生成する。この場合、MCU1は、生成部として機能する。そして、MCU1は、生成された操作コマンドの情報を表示デバイス50に送信する。   When the pressing force by the user exceeds the threshold value, the MCU 1 defines the operation region 15 that is currently selected (displayed by the display device 50), that is, the operation region 15 at a predetermined position in the upper region. An operation command corresponding to the information is generated. In this case, the MCU 1 functions as a generation unit. Then, the MCU 1 transmits information on the generated operation command to the display device 50.

表示デバイス50は受信した情報に基づいて、その操作コマンドに対応する、選局、ボリューム調整等の処理を実行する。   Based on the received information, the display device 50 executes processing such as channel selection and volume adjustment corresponding to the operation command.

図11は、上述した、「姿勢の情報」である角度範囲の情報に、操作内容を設定する場合の設定方法の原理を説明するための図である。   FIG. 11 is a diagram for explaining the principle of the setting method in the case where the operation content is set in the above-described angle range information that is “posture information”.

この例では、グローバル座標系として極座標系が用いられる。図6に示したステップ201及び202で得られた初期姿勢角度(θx、θy、θz)のうちヨー角であるθzと、Z軸からの傾き角θとを用いて、極座標で操作領域15が表現される。Z軸からの傾き角θは、式1及び2と同様の手法で、以下の式で求められる。 In this example, a polar coordinate system is used as the global coordinate system. Among the initial posture angles (θ x , θ y , θ z ) obtained in steps 201 and 202 shown in FIG. 6, the yaw angle θ z and the tilt angle θ from the Z axis are used to express in polar coordinates. An operation area 15 is represented. The tilt angle θ from the Z-axis is obtained by the following formula using the same method as formulas 1 and 2.

θ=arccos(az/AZG)・・・式(8) θ = arccos (a z / A ZG ) (8)

あるいはこれら初期姿勢角度のヨー角にθz限られず、これがグローバル変換された後の角度であるRzが用いられてもよい。ユーザーが第1の操作ステップにおける操作領域15の選択後、第2の操作ステップに移るまでの間、操作デバイス10の動きは実質的に一旦停止するので、MCU1は、ヨー角の初期姿勢角度θzを用いることができる。 Alternatively, the yaw angle of these initial posture angles is not limited to θ z , and R z that is an angle after this is globally converted may be used. Since the movement of the operation device 10 substantially temporarily stops after the user selects the operation area 15 in the first operation step and moves to the second operation step, the MCU 1 is configured to have the initial posture angle θ of the yaw angle. z can be used.

図11に示す例では、例えば、rを一定値とし、0°≦θ<30°、かつ、30°<θz≦60°の領域を、"ボリュームアップ"の操作領域15として設定している。上記のように、グローバル座標軸とセンサ基板20のローカル座標軸とが一致している状態を基準としたセンサ基板20の傾き角度から、このような設定が実現可能である。上記のように、これらの角度範囲の情報と、操作内容(操作コマンド)とが対応付けられて、ROM4または図示しないメモリに記憶されている。 In the example shown in FIG. 11, for example, r is a constant value, and an area where 0 ° ≦ θ <30 ° and 30 ° <θ z ≦ 60 ° is set as the operation area 15 for “volume up”. . As described above, such a setting can be realized from the tilt angle of the sensor substrate 20 based on the state where the global coordinate axis and the local coordinate axis of the sensor substrate 20 coincide with each other. As described above, information on these angle ranges and operation contents (operation commands) are associated with each other and stored in the ROM 4 or a memory (not shown).

以上のように、本実施形態では、ユーザーによる操作デバイス10の回転操作時に検知されたユーザーが見やすい位置である上部側領域が、ユーザーにより押されることをトリガーとして、上部側領域の所定位置に位置する操作領域15に対応する姿勢の情報に対応する操作コマンドが生成される。これにより、ユーザーの操作性を向上させることができる。   As described above, in the present embodiment, the upper side area, which is a position that is easy for the user to see when the user rotates the operation device 10, is positioned at a predetermined position in the upper side area triggered by being pressed by the user. An operation command corresponding to the posture information corresponding to the operation area 15 to be generated is generated. Thereby, user operability can be improved.

特に、選択対象となる領域の位置が、鉛直操作領域15Vの位置として予め設定されている。鉛直操作領域15Vは、ユーザーにとって見やすい位置であるため、ユーザーの操作性を向上させることができる。   In particular, the position of the area to be selected is set in advance as the position of the vertical operation area 15V. Since the vertical operation region 15V is a position that is easy for the user to see, the operability for the user can be improved.

(操作例2)
図12は、操作デバイス10による操作例2を説明するための図である。これ以降の説明では、上記操作例1と同様の部分の説明を省略または簡略化する。
(Operation example 2)
FIG. 12 is a diagram for explaining an operation example 2 by the operation device 10. In the following description, the description of the same part as the operation example 1 is omitted or simplified.

上記操作例1では、ユーザーの第2の操作ステップにおける押圧位置は、上部側領域のうち任意の位置であった。しかし、本操作例2では図12に示すように、上部側領域のうち、ユーザーが選択しようとする操作領域15のみを押すことによって、その操作領域15の姿勢の情報に対応する操作コマンドが実行される。この場合、ユーザーは第1の操作ステップにおいて、選択対象の操作領域15が上部側領域のうち任意の位置(例えば鉛直軸Vが通る位置)に位置するように、操作デバイス10を回転させればよい。   In the operation example 1, the pressing position in the second operation step of the user is an arbitrary position in the upper side region. However, in this operation example 2, as shown in FIG. 12, by pressing only the operation area 15 to be selected by the user in the upper area, the operation command corresponding to the posture information of the operation area 15 is executed. Is done. In this case, in the first operation step, the user rotates the operation device 10 so that the operation region 15 to be selected is located at an arbitrary position (for example, a position through which the vertical axis V passes) in the upper region. Good.

本操作例2を実現するためには、その図示は省略するが、例えば操作領域15ごとに圧力センサ8が設けられていてもよい。あるいは、圧力センサ8の配置がそうでなくても、所定のアルゴリズムでその操作領域15ごとの加圧位置を演算可能なプログラムがROM4等に記憶されていればよい。この場合、圧力センサ8に代えてひずみセンサでもよい。   In order to realize this operation example 2, although not shown, the pressure sensor 8 may be provided for each operation region 15, for example. Alternatively, even if the pressure sensor 8 is not arranged, a program capable of calculating the pressurization position for each operation region 15 by a predetermined algorithm may be stored in the ROM 4 or the like. In this case, a strain sensor may be used instead of the pressure sensor 8.

また、本操作例2を実現するために、操作例1と同様に、MCU1は操作デバイス10の姿勢を検知し、3次元内での操作領域15ごとの現在の位置を検知する。   In order to realize this operation example 2, similarly to the operation example 1, the MCU 1 detects the attitude of the operation device 10 and detects the current position for each operation region 15 in the three dimensions.

本操作例2では、表示デバイス50が、操作デバイス10の操作領域15に関連する関連画像58を出力してもよいし、出力しなくてもよい。   In the second operation example, the display device 50 may or may not output the related image 58 related to the operation area 15 of the operation device 10.

(操作例3)
図13は、操作デバイス10による操作例3を説明するための図である。
(Operation example 3)
FIG. 13 is a diagram for explaining an operation example 3 by the operation device 10.

本操作例3では、表示デバイス50は、操作デバイス10の形態(すなわち球面を表現している)と同様の、複数の操作領域15に対応する複数の関連画像58を表示のために出力する。図13に示す例では、表示デバイス50のCPU53は、選択対象領域となる例えば鉛直操作領域15V及びそれに隣接する操作領域15を拡大して表示する。   In this operation example 3, the display device 50 outputs a plurality of related images 58 corresponding to a plurality of operation areas 15 similar to the form of the operation device 10 (that is, representing a spherical surface) for display. In the example shown in FIG. 13, the CPU 53 of the display device 50 enlarges and displays, for example, the vertical operation area 15 </ b> V that is a selection target area and the operation area 15 adjacent thereto.

第1の操作ステップでは、CPU53は、操作デバイス10の動きに応じて、この関連画像58を変化させ(関連画像58の表示を更新し)、さらに、複数の操作領域15のうち1つの関連画像58を選択的に強調表示する。強調表示された関連画像58を符号58Vで示している。   In the first operation step, the CPU 53 changes the related image 58 in accordance with the movement of the operation device 10 (updates the display of the related image 58), and further, one related image of the plurality of operation areas 15. 58 is selectively highlighted. The highlighted related image 58 is indicated by reference numeral 58V.

操作デバイス10は、検知した自身の姿勢の情報を表示デバイス50に送信すればよい。あるいは、操作デバイス10が自身の動き情報を表示デバイス50に送信して、表示デバイス50がそれを受信し、受信した情報に基づき、図6に示したように操作デバイス10の姿勢を検知すればよい。   The operation device 10 may transmit information on the detected posture of itself to the display device 50. Alternatively, if the operation device 10 transmits its own movement information to the display device 50, the display device 50 receives it, and based on the received information, detects the attitude of the operation device 10 as shown in FIG. Good.

第2の操作ステップは、上記操作例1及び2と同様である。   The second operation step is the same as in the above operation examples 1 and 2.

以上のように、本操作例3では、操作デバイス10の形態と同様の関連画像58が表示されるので、ユーザーの直感性が向上する。また、所定位置(鉛直上向き)に位置する選択対象となる操作領域15に対応する関連画像58が強調表示されるので、ユーザーの視認性及び操作性が向上する。   As described above, in this operation example 3, the related image 58 similar to that of the operation device 10 is displayed, so that the user's intuition is improved. Further, since the related image 58 corresponding to the operation region 15 to be selected located at a predetermined position (vertically upward) is highlighted, the visibility and operability of the user are improved.

本操作例3では、CPU53は、鉛直操作領域15V及びそれに隣接する操作領域15を拡大表示した。しかし、CPU53は、そのように拡大表示せずに、例えば次に説明する図14の左側の図に示すように、所定方向(典型的には斜め上)から見た操作デバイス10の全体の関連画像を表示するようにしてもよい。   In this operation example 3, the CPU 53 enlargedly displays the vertical operation area 15V and the operation area 15 adjacent thereto. However, the CPU 53 does not perform such enlarged display, and as a result, for example, as shown in the left side of FIG. 14 to be described next, the entire relationship of the operation device 10 viewed from a predetermined direction (typically obliquely upward) An image may be displayed.

(操作例4)
図14は、操作デバイス10による操作例4を説明するための図である。
(Operation example 4)
FIG. 14 is a diagram for explaining an operation example 4 by the operation device 10.

本操作例4では、操作デバイス10の筺体11の表面には、操作内容を表す文字等が印刷されていない。この場合、表示デバイス50が操作デバイス10の形態と同様の、複数の操作領域に関連する関連画像65を表示する。また選択対象となる関連画像65Vが強調表示されている。   In the fourth operation example, no character or the like representing the operation content is printed on the surface of the casing 11 of the operation device 10. In this case, the display device 50 displays the related images 65 related to a plurality of operation areas similar to the form of the operation device 10. Further, the related image 65V to be selected is highlighted.

操作デバイス10のMCU1の処理内容は上記操作例1と同様であり、表示デバイス50のCPU53の処理内容は操作例3と同様である。   The processing content of the MCU 1 of the operation device 10 is the same as that of the operation example 1, and the processing content of the CPU 53 of the display device 50 is the same as that of the operation example 3.

(操作例5)
図15Aは、操作デバイス10による操作例5を説明するための図である。
(Operation example 5)
FIG. 15A is a diagram for explaining an operation example 5 by the operation device 10.

本操作例5では、図15Aに示すように、例えば選択対象とされる操作領域15が、所定の位置(ここでは鉛直軸Vが通る位置)を通る操作領域15だけでなく、それに隣接する少なくとも1つの操作領域15も含む。これら選択候補とされる領域を、以下、選択候補領域群(斜線で記した領域25)という。   In this operation example 5, as shown in FIG. 15A, for example, the operation area 15 to be selected is not only the operation area 15 passing through a predetermined position (here, the position through which the vertical axis V passes), but at least adjacent to the operation area 15 One operation area 15 is also included. These regions that are selection candidates are hereinafter referred to as a selection candidate region group (region 25 indicated by hatching).

この例では、"決定"が鉛直操作領域15Vとなり、それに隣接するように複数の方向キーが設けられる。方向キーは、例えばポインターを画面内で動かす時等に用いられる。もちろん、このような決定及び方向キー等に限られず、例えばメディア再生機能等に関連した操作領域等、何でもよい。   In this example, “OK” is the vertical operation region 15V, and a plurality of direction keys are provided adjacent to it. The direction key is used, for example, when the pointer is moved within the screen. Of course, the present invention is not limited to such determination and direction keys, and may be anything such as an operation area related to the media playback function.

本操作例5では、操作デバイス10のMCU1の処理は上記操作例1または2と同様である。MCU1は、選択候補領域群25のうち1つの操作領域15を画定する姿勢の情報に対応する操作コマンドを実行する。表示デバイス50のCPU53の処理内容は上記各操作例のうちいずれか1つでよい。   In this operation example 5, the processing of the MCU 1 of the operation device 10 is the same as in the operation example 1 or 2. The MCU 1 executes an operation command corresponding to the posture information that defines one operation region 15 in the selection candidate region group 25. The processing content of the CPU 53 of the display device 50 may be any one of the above operation examples.

選択候補領域群25のうちいずれの操作領域15がユーザーに指定されたかを検知するためには、操作デバイスは次のような構成を備えればよい。例えば、筺体11の表面にタッチセンサ(静電容量センサまたはひずみゲージ等)が、それらの選択候補領域群25内の各操作領域15へのタッチを検出できるように配置されていればよい。   In order to detect which operation region 15 of the selection candidate region group 25 is designated by the user, the operation device may have the following configuration. For example, a touch sensor (a capacitance sensor, a strain gauge, or the like) may be disposed on the surface of the housing 11 so as to be able to detect a touch on each operation region 15 in the selection candidate region group 25.

(操作例6)
図15Bは、操作デバイス10による操作例6を説明するための図である。
(Operation example 6)
FIG. 15B is a diagram for explaining an operation example 6 by the operation device 10.

図15Bに示すように、これまで説明してきた操作デバイス10の1つの操作領域15を複数の操作領域15に分割してもよい。この場合、筺体11の複数の姿勢の情報のうち、1つの姿勢の情報と1つの選択候補領域群35とが対応付けられて記憶される。ユーザーは、第1の操作ステップで1つの選択候補領域群35を選択対象とし、その選択候補領域群35から、1つの操作領域15をタッチすることで(図9右下を参照)、その操作領域15に対応する操作コマンドが実行される。   As shown in FIG. 15B, one operation area 15 of the operation device 10 described so far may be divided into a plurality of operation areas 15. In this case, one piece of posture information and one selection candidate region group 35 among the plurality of pieces of posture information of the housing 11 are stored in association with each other. The user selects one selection candidate area group 35 as a selection target in the first operation step, and touches one operation area 15 from the selection candidate area group 35 (see the lower right in FIG. 9). An operation command corresponding to the area 15 is executed.

この操作例6に係る、操作デバイス10の処理内容は、上記操作例5のものと同様である。   The processing content of the operation device 10 according to the operation example 6 is the same as that of the operation example 5 described above.

(操作例7)
図16は、操作デバイスによる操作例7を説明するための図である。
(Operation example 7)
FIG. 16 is a diagram for explaining an operation example 7 by the operation device.

操作例6に係る操作デバイス110は、その筺体111の表面に設けられた、複数の操作領域15にそれぞれ関連する複数の関連画像を表示するディスプレイを有する。ディスプレイは感圧式または静電容量式等のタッチパネル等の機能を有していてもよい。   The operation device 110 according to the operation example 6 includes a display that is provided on the surface of the casing 111 and displays a plurality of related images respectively related to the plurality of operation regions 15. The display may have a function such as a pressure-sensitive or capacitive touch panel.

操作デバイス110は、コントロールモードとして、図16左に示すように、TVや録画機能あるいは録画機器等をコントロールするためのTV/VIDEOモードと、図16右に示すように、音楽機能あるいは音楽機器をコントロールするためのMUSICモードとを有する。操作デバイス110は、コントロールモードを3つ以上有していてもよい。   As shown in the left side of FIG. 16, the operation device 110 has a TV / VIDEO mode for controlling a TV, a recording function or a recording device as shown in FIG. 16, and a music function or a music device as shown in the right side of FIG. MUSIC mode for control. The operation device 110 may have three or more control modes.

両者モードの切り替えは、例えば操作デバイス110を用いたジェスチャー、操作デバイス110に設けられた図示しないスイッチ、または、表示デバイス50に表示可能なアプリケーションソフトウェアにより、行われればよい。   Switching between the two modes may be performed by, for example, a gesture using the operation device 110, a switch (not shown) provided in the operation device 110, or application software that can be displayed on the display device 50.

操作デバイス110のMCU及び表示デバイスのCPUの処理内容は、上記操作例1〜4のうちいずれか1つと同様である。   The processing contents of the MCU of the operation device 110 and the CPU of the display device are the same as any one of the operation examples 1 to 4 described above.

操作例7では、表示デバイスには操作領域15に関連する関連画像が表示されなくてもよい。操作デバイス110のディスプレイは、所定位置の選択対象の領域を強調表示してもよい。   In the operation example 7, the related image related to the operation area 15 may not be displayed on the display device. The display of the operation device 110 may highlight an area to be selected at a predetermined position.

(操作例8)
操作デバイスによる操作例8を説明する。
(Operation example 8)
An operation example 8 by the operation device will be described.

例えば、操作例8に係る操作デバイス10は、自身の姿勢を検知した結果の情報の演算(出力)を停止するか、または、その姿勢の演算(出力)は行っても、表示デバイス50に送信することを停止する機能を備えていてもよい。この場合、MCU1は、停止部として機能する。これにより、表示デバイス50には操作デバイス10の姿勢の検知情報が送信されないので、表示デバイス50のCPU53はその表示を変化させない。   For example, the operation device 10 according to the operation example 8 stops the calculation (output) of information as a result of detecting its own posture, or transmits the calculation (output) of the posture to the display device 50. You may have the function to stop doing. In this case, the MCU 1 functions as a stop unit. Accordingly, since the detection information of the attitude of the operation device 10 is not transmitted to the display device 50, the CPU 53 of the display device 50 does not change the display.

図10Aに示した例であれば、ユーザーが操作デバイス10を回転させるように操作しても、表示デバイス50はその選択対象の領域の関連画像58を変化させず、例えば、所定の関連画像58、または直前に指定された操作領域15に対応する関連画像58を表示している。そして、ユーザーによる操作デバイス10を用いての所定のジェスチャーがあった場合、MCU1は、それをトリガーとしたイネーブル信号を発生する。つまり、MCU1は上記の停止を解除する。この場合、MCU1は解除部として機能する。   In the example shown in FIG. 10A, even if the user operates the operation device 10 to rotate, the display device 50 does not change the related image 58 of the selection target area. For example, the predetermined related image 58 Alternatively, the related image 58 corresponding to the operation area 15 designated immediately before is displayed. When there is a predetermined gesture using the operation device 10 by the user, the MCU 1 generates an enable signal triggered by the gesture. That is, the MCU 1 releases the above stop. In this case, the MCU 1 functions as a release unit.

所定のジェスチャーとは、例えば、ユーザーが操作デバイス10の筺体11を所定の加圧力で握ったり、所定の加振力で及び所定回数振ったり、あるいは操作デバイス10に設けられた図示しないスイッチやボタンを押したり等がある。   The predetermined gesture is, for example, a switch or button (not shown) provided on the operation device 10, for example, when the user grasps the casing 11 of the operation device 10 with a predetermined pressure, shakes with a predetermined excitation force and a predetermined number of times. There is such as pushing.

[他の実施形態に係る操作デバイス]   [Operation devices according to other embodiments]

図17及び18は、本技術の他の実施形態に係る操作デバイスを示す。これ以降の説明では、上記の実施形態に係る操作デバイス10及び情報処理システムが含むハードウェアや機能等について、同様のものは説明を簡略化または省略し、異なる点を中心に説明する。   17 and 18 illustrate an operating device according to another embodiment of the present technology. In the following description, the hardware, functions, and the like included in the operation device 10 and the information processing system according to the above-described embodiment will be described with a focus on different points while simplifying or omitting the description.

この操作デバイス210の筺体211の重心は偏心しており、その筺体211は楕円体あるいは卵に似た形状を有する。筺体211には予め上下が設定され、操作面90に接触する領域を有する下部側領域の重量が、上部側領域に比べて重くなるように偏心を持っている。これにより、この操作デバイス210は、いわば起き上がりこぼしのように動くことが可能である。操作デバイス210の筺体211の基準姿勢は、起き上がりこぼしのように、筺体211の長手方向を重力方向に一致させて自立している。この基準姿勢の状態から、図17に示すようにユーザーが任意の方向に回転させる(傾ける)ようにして第1の操作ステップを行う。   The center of gravity of the casing 211 of the operation device 210 is eccentric, and the casing 211 has a shape similar to an ellipsoid or an egg. The upper and lower sides of the casing 211 are set in advance, and are eccentric so that the weight of the lower side region having the region in contact with the operation surface 90 is heavier than that of the upper side region. As a result, the operation device 210 can move as if it were getting up. The reference posture of the casing 211 of the operation device 210 is self-supporting so that the longitudinal direction of the casing 211 coincides with the direction of gravity as if the casing 211 is raised and spilled. From this reference posture state, the first operation step is performed such that the user rotates (tilts) in an arbitrary direction as shown in FIG.

(偏心形状を持つ操作デバイスの操作例1)
この操作デバイス210の基準姿勢は予め設定されているので、上下方向が決められた状態でユーザーにより操作デバイス210が操作される。したがって、操作デバイス210は、動きセンサのうち、少なくとも直交3軸の加速度センサ5によってその姿勢を検知可能である。この場合、角速度センサ6及び磁気センサ7は、その姿勢の検知の精度を上げるための補助的なセンサとして用いられてもよい。
(Operation example 1 of an operation device having an eccentric shape)
Since the reference posture of the operation device 210 is set in advance, the operation device 210 is operated by the user with the vertical direction determined. Therefore, the operation device 210 can detect the posture by at least the three-axis acceleration sensor 5 among the motion sensors. In this case, the angular velocity sensor 6 and the magnetic sensor 7 may be used as auxiliary sensors for increasing the accuracy of detecting the posture.

図17に示すように、ユーザーがこの操作デバイス210を傾けた状態を保つと、MCU1はその筺体211の姿勢を検知する。具体的には、MCU1は、その姿勢の傾き角度として、上記した初期姿勢角度またはグローバル角度(図6参照)を算出して、その算出した情報を表示デバイス50に送信する。表示デバイス50は、その情報を受信し、その姿勢(つまり、傾き角度及びその方向)に応じて、関連画像58をスクロールするように表示を制御する。この場合、CPU53は、傾き角度が大きいほどスクロールの速さを速くし、傾き方向に応じた方向に関連画像58をスクロールする。   As shown in FIG. 17, when the user keeps the operation device 210 tilted, the MCU 1 detects the posture of the casing 211. Specifically, the MCU 1 calculates the above-described initial posture angle or global angle (see FIG. 6) as the tilt angle of the posture, and transmits the calculated information to the display device 50. The display device 50 receives the information and controls the display to scroll the related image 58 according to the posture (that is, the tilt angle and the direction). In this case, the CPU 53 increases the scrolling speed as the tilt angle increases, and scrolls the related image 58 in a direction corresponding to the tilt direction.

また、この場合の、複数の操作領域に対応する関連画像58のうち、選択の対象となる領域の関連画像58Vは、強調表示されている。この強調表示されている関連画像58Vの位置は、少なくともスクロール中においては画面内で移動しない。   In this case, among the related images 58 corresponding to the plurality of operation regions, the related image 58V of the region to be selected is highlighted. The position of the highlighted related image 58V does not move within the screen at least during scrolling.

図18に示すように、ユーザーが第2の操作ステップを行う場合には、操作デバイス210を基準姿勢に戻し、その操作デバイス210の筺体211の上部側領域、ここでは鉛直軸Vが通る領域に外力を加える。ユーザーによる外力は上記したような圧力センサ8、振動センサ、接触センサにより検知され得る。この第2の操作ステップにより、操作デバイス210のMCUは操作コマンドを実行し、それを表示デバイス50に送信する。これにより、表示デバイス50の画面上で強調表示で選択された領域が指定される。   As shown in FIG. 18, when the user performs the second operation step, the operation device 210 is returned to the reference posture, and the upper region of the housing 211 of the operation device 210, here the region through which the vertical axis V passes. Apply external force. The external force by the user can be detected by the pressure sensor 8, the vibration sensor, and the contact sensor as described above. By this second operation step, the MCU of the operation device 210 executes the operation command and transmits it to the display device 50. Thereby, the area selected by highlighting on the screen of the display device 50 is designated.

図19は、図17に示した第1の操作ステップにおける操作領域の検出原理を説明するための図である。本操作例では、CPU53は、操作デバイス210の姿勢(傾き角度及び傾き方向)に応じて、仮想的に2次元直交座標系で表された平面内を移動するように演算を行う。その平面内の各座標領域には予め複数の操作領域105が仮想的に設定されている。第1の操作ステップにより、平面上の各操作領域105のうち、移動するポインターが位置する操作領域15が、その時点で選択対象とされている(強調表示されている)領域となる。   FIG. 19 is a diagram for explaining the principle of operation region detection in the first operation step shown in FIG. In this operation example, the CPU 53 performs an operation so as to move in a virtual plane represented by a two-dimensional orthogonal coordinate system in accordance with the attitude (tilt angle and tilt direction) of the operation device 210. A plurality of operation areas 105 are virtually set in advance in each coordinate area in the plane. By the first operation step, among the operation areas 105 on the plane, the operation area 15 where the moving pointer is located becomes an area to be selected (highlighted) at that time.

図19に示す例では、20≦x<40、かつ、10<y≦30の座標範囲を、"ボリュームアップ"の操作領域105として設定されている。つまり、これらの操作領域105の座標範囲ごとに操作コマンドが対応付けられるように、例えば表示デバイス50の記憶部57あるいはROM54(図3参照)に記憶されている。本操作例1の場合、操作デバイス210自身は、現在のポインターの位置が、どの座標範囲に対応する操作領域105にあるのかを検知していないので、操作デバイス210から送信される操作コマンドは、その操作内容を表示デバイス50に実行を開始させるためのトリガーのコマンド(実行コマンド)となる。   In the example shown in FIG. 19, a coordinate range of 20 ≦ x <40 and 10 <y ≦ 30 is set as the operation area 105 for “volume up”. That is, the operation command is stored in, for example, the storage unit 57 of the display device 50 or the ROM 54 (see FIG. 3) so that the operation command is associated with each coordinate range of the operation area 105. In the case of this operation example 1, since the operation device 210 itself has not detected which coordinate range corresponds to the operation area 105 corresponding to the current pointer position, the operation command transmitted from the operation device 210 is The operation content becomes a trigger command (execution command) for causing the display device 50 to start execution.

なお、操作デバイス210が第1の操作ステップから第2の操作ステップに移るまでの間に、基準姿勢に戻る。この戻り時は、表示デバイス50は、コントロールするポインターの位置をそれに追従しないよう制御すると、操作性が良くなる。   The operation device 210 returns to the reference posture until the operation device 210 moves from the first operation step to the second operation step. At the time of this return, if the display device 50 is controlled not to follow the position of the pointer to be controlled, the operability is improved.

また、本実施形態において、座標の端(最大または最小)までポインターが移動した場合、ポインターの座標値が対極へ飛ぶ(ループする)ようにしてもよい。図19に示す例の場合、x=+60(-60)を超えた(下回った)場合に、x=-60(+60)に飛ぶようにしてもよい。これにより、CPU53は、画面上でボールが1回転以上回転しても、操作対象領域が1回転前の元の操作領域105に戻るように表示を制御することができる。   In the present embodiment, when the pointer moves to the end of coordinates (maximum or minimum), the coordinate value of the pointer may jump (loop) to the counter electrode. In the case of the example shown in FIG. 19, when x = + 60 (−60) is exceeded (below), it may fly to x = −60 (+60). Thus, the CPU 53 can control the display so that the operation target area returns to the original operation area 105 before one rotation even when the ball rotates one or more times on the screen.

(偏心形状を持つ操作デバイスの操作例2)
上記操作例1の説明では、偏心形状を持つ操作デバイス210は、ポインターの位置がどの座標範囲に対応する操作領域15にあるかということを検知せず、これを表示デバイス50が行う例を示した。しかし、本操作例2では、操作デバイス210は、加速度センサ5、角速度センサ6及び磁気センサ7を備える場合に、上記した球状の操作デバイス210と同様に、グローバル座標での操作領域を検出すればよい。つまり、本操作例2に係る操作デバイス210による操作領域の検出原理は、図19に示したような操作領域105の検出原理とは異なり、操作デバイス210は、これらセンサ5〜7の検出値の組み合わせの情報である姿勢の情報と、操作コマンドの情報とを対応付けて記憶している。
(Operation example 2 of operation device with eccentric shape)
In the description of the operation example 1, the operation device 210 having an eccentric shape does not detect which coordinate range corresponds to the position of the pointer and the display device 50 performs this operation. It was. However, in the second operation example, when the operation device 210 includes the acceleration sensor 5, the angular velocity sensor 6, and the magnetic sensor 7, if the operation region in the global coordinates is detected as in the spherical operation device 210 described above. Good. That is, the detection principle of the operation region by the operation device 210 according to the second operation example is different from the detection principle of the operation region 105 as illustrated in FIG. 19, and the operation device 210 detects the detection values of these sensors 5 to 7. Posture information, which is combination information, and operation command information are stored in association with each other.

例えば操作デバイス210の筺体211の表面、及び、その操作デバイス210が接触する操作面90のいずれかが柔らかい材質を有していたり、操作面90がデコボコしていたり、その操作面90がぐちゃぐちゃになった布等が敷かれていたりする場合にも、本操作例2は有効である。この場合、操作デバイス210の偏心があるにも関わらず、操作デバイス210の形状やその偏心度等によっては、操作デバイス210が基準姿勢に戻らない場合も想定される。こういった場合に、操作デバイス210が、姿勢の情報及び操作コマンドの情報を予め対応付けて記憶しておくことにより、筺体211の操作対象となる領域が、本来操作対象とされる鉛直軸Vを通る位置に位置しなくてもよい。頂点以外の領域が鉛直軸Vを通る位置に位置した場合も、MCUはその頂点以外の鉛直操作領域を検知できる。   For example, either the surface of the casing 211 of the operation device 210 and the operation surface 90 with which the operation device 210 comes into contact have a soft material, the operation surface 90 is uneven, or the operation surface 90 is messed up. This operation example 2 is also effective when a cloth or the like is laid. In this case, even when the operation device 210 is eccentric, the operation device 210 may not return to the reference posture depending on the shape of the operation device 210, the degree of eccentricity, and the like. In such a case, the operation device 210 stores the posture information and the operation command information in association with each other in advance, so that the region that is the operation target of the casing 211 is the vertical axis V that is originally the operation target. It does not have to be located at a position passing through. Even when a region other than the vertex is located at a position passing through the vertical axis V, the MCU can detect a vertical operation region other than the vertex.

(その他の偏心形状を持つ操作デバイスの例)
図20A及びBは、偏心した重心を持つ操作デバイスについての他の例を示す。これらに示すように、卵形状に似た形状以外の形状を有する操作デバイス310及び410にも、本技術を適用可能である。
(Examples of operation devices with other eccentric shapes)
20A and 20B show another example for an operating device having an eccentric center of gravity. As shown in these figures, the present technology can also be applied to the operation devices 310 and 410 having shapes other than the shape similar to the egg shape.

[その他の実施形態]   [Other embodiments]

本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。   The present technology is not limited to the embodiments described above, and other various embodiments can be realized.

上記各実施形態では、図6に示した処理をすべて操作デバイスが実行する形態を示した。しかし、図6に示した処理の一部を表示デバイスが実行してもよい。例えば、操作デバイスは、図6において各センサ5〜7の検出値のAD変換の処理まで実行し、AD変換されて得られた情報を、表示デバイスに送信する。そして、表示デバイスは、そのステップ201〜205を実行してもよい。あるいは、操作デバイスが、そのステップ201〜204のうちいずれかまでの処理を実行し、残りの処理を表示デバイス50が実行してもよい。操作デバイス10及び表示デバイス50がどの処理を担当するかは、例えばそれらの演算処理能力、それらのコスト、チップサイズ等の環境から適宜判断されればよい。   In each of the embodiments described above, the operation device performs all the processes shown in FIG. However, the display device may execute part of the processing illustrated in FIG. For example, the operation device executes up to AD conversion processing of the detection values of the sensors 5 to 7 in FIG. 6, and transmits information obtained by AD conversion to the display device. And a display device may perform the steps 201-205. Alternatively, the operation device may execute any one of the steps 201 to 204 and the display device 50 may execute the remaining processes. Which process the operation device 10 and the display device 50 are in charge of may be appropriately determined from the environment such as their processing capacity, their cost, chip size, and the like.

上記した各操作例では、鉛直操作領域に対応する操作内容が、ユーザーによる選択の対象として設定されていた。しかし、筺体の上部側領域であって、鉛直軸を通らない操作領域に対応する操作内容が、操作対象として設定されてもよい。   In each operation example described above, the operation content corresponding to the vertical operation region is set as a selection target by the user. However, an operation content corresponding to an operation region that is an upper region of the housing and does not pass through the vertical axis may be set as an operation target.

操作例3及び4では、表示デバイスは、操作デバイスの形状と同様の形態の関連画像を表示したが、これに限られず、グリッド表示や一覧表示等、他の表示形態で関連画像を表示してもよい。   In the operation examples 3 and 4, the display device displays a related image in a form similar to the shape of the operation device. However, the display device is not limited to this, and the related image is displayed in another display form such as a grid display or a list display. Also good.

上記実施形態に係る操作デバイスのユーザーによる操作時に、操作面に接触し得る、筺体の外面の形状は曲面として説明した。しかし、筺体の外面の少なくとも一部が細かな平面の集合で形成され、その平面の集合で形成される面が操作面に接触して操作される操作デバイスも、本技術の範囲に含まれる。   The shape of the outer surface of the casing that can come into contact with the operation surface when operated by the user of the operation device according to the embodiment has been described as a curved surface. However, an operation device in which at least a part of the outer surface of the housing is formed by a set of fine planes and the surface formed by the set of planes is operated in contact with the operation surface is also included in the scope of the present technology.

図17、18及び20に示した実施形態に係る、偏心形状の操作デバイスの筺体は、その上下方向が予め定まるような形状に形成されていた。しかし、筺体が球形以外の形状である場合でも、上下方向が予め定められない形状、例えば直方体、立方体、楕円体、ラグビーボールのような形状、あるいは、これらの立体のうち少なくとも1つの形状と球体の一部との組み合わせ、といった形状を筺体が有していてもよい。   The casing of the eccentric shaped operation device according to the embodiment shown in FIGS. 17, 18 and 20 is formed in a shape whose vertical direction is predetermined. However, even when the box is in a shape other than a sphere, a shape whose vertical direction is not determined in advance, such as a rectangular parallelepiped, a cube, an ellipsoid, a rugby ball, or at least one of these three shapes and a sphere The housing may have a shape such as a combination with a part of the housing.

上記実施形態における操作デバイスの表面に設けられた複数の操作領域の形状として、切頂二十面体の形状は単なる一例である。複数の操作領域は、例えば正多面体でもよいし、複数の地球儀の経度線及び/または緯度線のような線により区画されていてもよい。あるいは、各操作領域の形状が規則的でなくてもよく、不規則形状の面(あるいは不規則形状の泡)で区画されていてもよい。   The shape of the truncated icosahedron is just an example as the shape of the plurality of operation regions provided on the surface of the operation device in the embodiment. The plurality of operation areas may be regular polyhedrons, for example, or may be partitioned by lines such as a plurality of globes and / or latitude lines. Alternatively, the shape of each operation region may not be regular, and may be defined by an irregularly shaped surface (or irregularly shaped bubbles).

予め上下方向が定められた操作デバイスには、直交2軸の検出軸を有する加速度センサ及び角速度センサを有していてもよい。   The operation device whose vertical direction is determined in advance may have an acceleration sensor and an angular velocity sensor having two orthogonal detection axes.

操作デバイスが、自身の姿勢を検知するための演算方法については、図6に示した処理に限られず、あらゆる他の公知の演算方法を用いることも可能である。   The calculation method for the operation device to detect its own posture is not limited to the process shown in FIG. 6, and any other known calculation method can be used.

以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。   It is also possible to combine at least two feature portions among the feature portions of each embodiment described above.

本技術は以下のような構成もとることができる。
(1)複数の操作領域を有する表面を含む筺体と、前記筺体の動きを検出する第1のセンサと、前記複数の操作領域に対する外力を検出可能な第2のセンサとを有する操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得する取得部と、
前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する記憶部と、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する検知部と、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成する生成部と、
少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する送信部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記生成部は、前記複数の操作領域のうち、前記3次元内における鉛直軸が通る鉛直操作領域を前記所定位置に位置する操作領域として、前記鉛直操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成する
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記生成部は、前記鉛直操作領域が前記ユーザーにより押されたことが検出された場合、前記鉛直操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成する
情報処理装置。
(4)(2)に記載の情報処理装置であって、
前記生成部は、前記上部側領域のうち、前記鉛直操作領域に隣接する少なくとも1つの操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成可能である
情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記操作対象機器は、前記複数の操作領域にそれぞれ関連する複数の関連画像を表示のために出力可能であり、
前記送信部は、前記複数の関連画像のうち、少なくとも前記所定位置に位置する前記操作領域に関連する関連画像を、前記動き情報に基づき前記操作対象機器に表示のために出力させるために、前記取得された動き情報または前記検知された姿勢の検知情報を前記操作対象機器へ送信する
情報処理装置。
(6)(5)に記載の情報処理装置であって、
前記送信部は、前記所定位置に位置する前記操作領域に関連する関連画像を、前記操作デバイスの動きに応じて選択的に強調表示させるために、前記取得された動き情報または前記検知された姿勢の検知情報を前記操作対象機器へ送信する
情報処理装置。
(7)(1)から(6)のうちいずれか1つに記載の情報処理装置であって、
前記操作デバイスの前記筺体の表面のうち、少なくとも、前記操作面に接触する面が球面である
情報処理装置。
(8)(1)から(7)のうちいずれか1つに記載の情報処理装置であって、
前記操作デバイスは、前記筺体の表面に設けられた、前記複数の操作領域にそれぞれ関連する複数の関連画像を表示するディスプレイを有する
情報処理装置。
(9)(5)、(6)、または(8)のうちいずれか1つに記載の情報処理装置であって、
前記検知部による、前記操作デバイスの姿勢の検知情報の出力を停止するか、または、前記送信部による前記動き情報の前記操作対象機器への送信を停止する停止部と、
前記第2のセンサによる所定の外力が検出された場合、前記停止部による前記送信の停止を解除する解除部と
をさらに具備する情報処理装置。
(10)複数の操作領域を有する表面を含む筺体と、前記筺体の動きを検出する第1のセンサと、前記複数の操作領域に対する外力を検出可能な第2のセンサとを有する操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得する取得部と、
前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する記憶部と、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する検知部と、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成する生成部と、
少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する送信部と、を含む情報処理装置と、
少なくとも前記送信された操作コマンドを受信する受信部と、
前記受信された操作コマンドの情報に基づき、前記複数の操作領域にそれぞれ関連する関連画像を表示のために出力する出力部と、を含む操作対象機器と
を具備する情報処理システム。
(11)筺体と、前記筺体の動きを検出する第1のセンサと、前記筺体に対する外力を検出可能な第2のセンサとを有する操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得する取得部と、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する検知部と、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、実行コマンドを生成する生成部と、
前記生成された実行コマンドと、前記取得された動き情報または前記検知された姿勢の検知情報とを、前記操作デバイスの操作対象機器へ送信する送信部と、を含む情報処理装置と、
複数の操作領域をそれぞれ画定するための、仮想的な平面領域に表された複数の座標範囲の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する記憶部と、
前記情報処理装置から送信された情報を受信する受信部と、
前記実行コマンドが受信部により受信された場合、前記受信された動き情報または姿勢の検知情報に応じて選択され得る、前記複数の座標範囲のうちの1つの座標範囲に対応する操作コマンドを実行する実行部と、を有する操作対象機器と
を具備する情報処理システム。
(12)複数の操作領域を有する表面を含む筺体と、
前記筺体の動きを検出する第1のセンサと、
前記複数の操作領域に対する外力を検出可能な第2のセンサと、
操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得する取得部と、
前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する記憶部と、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する検知部と、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成する生成部と、
少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する送信部と
を具備する操作デバイス。
(13)複数の操作領域を有する表面を含む筺体と、前記筺体の動きを検出する第1のセンサと、前記複数の操作領域に対する外力を検出可能な第2のセンサとを有する操作デバイスの情報処理装置が実行する方法であって、
前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶し、
前記操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得し、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知し、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成し、
少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する
情報処理方法。
The present technology can be configured as follows.
(1) An operation device having a housing including a surface having a plurality of operation regions, a first sensor that detects movement of the housing, and a second sensor that can detect an external force with respect to the plurality of operation regions is operated. An acquisition unit that acquires movement information detected by the first sensor when the operation device is operated by the user to rotate while being placed on a surface;
A storage unit that associates and stores information on a plurality of postures of the operation device and information on a plurality of operation commands respectively corresponding to the plurality of operation regions for defining the plurality of operation regions;
Based on the acquired movement information, a detection unit that detects an attitude of the operation device operated by the user;
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. A generating unit that generates an operation command corresponding to information on a posture that defines an operation region located at a predetermined position on a surface of the casing among the upper side region among the plurality of operation regions;
An information processing apparatus comprising: a transmission unit that transmits at least the generated operation command to an operation target device of the operation device.
(2) The information processing apparatus according to (1),
The generation unit corresponds to the posture information that defines the vertical operation area, with the vertical operation area through which the vertical axis in the three-dimensional dimension passes as the operation area located at the predetermined position among the plurality of operation areas. An information processing apparatus that generates the operation command.
(3) The information processing apparatus according to (2),
The generation unit generates the operation command corresponding to information on the posture that defines the vertical operation area when it is detected that the vertical operation area is pressed by the user.
(4) The information processing apparatus according to (2),
The information processing apparatus can generate the operation command corresponding to the posture information that defines at least one operation region adjacent to the vertical operation region in the upper side region.
(5) The information processing apparatus according to any one of (1) to (4),
The operation target device can output a plurality of related images respectively related to the plurality of operation areas for display,
The transmission unit is configured to cause the operation target device to output, for display, a related image related to the operation region located at the predetermined position among the plurality of related images, based on the motion information. An information processing apparatus that transmits acquired motion information or detection information of the detected posture to the operation target device.
(6) The information processing apparatus according to (5),
The transmission unit acquires the motion information acquired or the detected posture in order to selectively highlight a related image related to the operation region located at the predetermined position according to the motion of the operation device. An information processing device that transmits the detection information to the operation target device.
(7) The information processing apparatus according to any one of (1) to (6),
Of the surfaces of the casing of the operation device, at least a surface in contact with the operation surface is a spherical surface.
(8) The information processing apparatus according to any one of (1) to (7),
The operation device includes a display that is provided on a surface of the housing and displays a plurality of related images respectively associated with the plurality of operation regions.
(9) The information processing apparatus according to any one of (5), (6), and (8),
Stop the output of the detection information of the attitude of the operation device by the detection unit, or a stop unit to stop transmission of the motion information to the operation target device by the transmission unit,
An information processing apparatus further comprising: a release unit that cancels the stop of the transmission by the stop unit when a predetermined external force is detected by the second sensor.
(10) An operation device having a housing including a surface having a plurality of operation areas, a first sensor for detecting movement of the housing, and a second sensor capable of detecting an external force applied to the plurality of operation areas is operated. An acquisition unit that acquires movement information detected by the first sensor when the operation device is operated by the user to rotate while being placed on a surface;
A storage unit that associates and stores information on a plurality of postures of the operation device and information on a plurality of operation commands respectively corresponding to the plurality of operation regions for defining the plurality of operation regions;
Based on the acquired movement information, a detection unit that detects an attitude of the operation device operated by the user;
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. A generating unit that generates an operation command corresponding to information on a posture that defines an operation region located at a predetermined position on a surface of the casing among the upper side region among the plurality of operation regions;
An information processing apparatus including: a transmission unit that transmits at least the generated operation command to an operation target device of the operation device;
A receiving unit for receiving at least the transmitted operation command;
An information processing system comprising: an operation target device including: an output unit configured to output, for display, related images respectively associated with the plurality of operation areas based on the received operation command information.
(11) In a state where an operation device having a housing, a first sensor that detects movement of the housing, and a second sensor that can detect an external force with respect to the housing is placed on the operation surface, the operation is performed by the user. An acquisition unit that acquires movement information detected by the first sensor when the device is operated to rotate;
Based on the acquired movement information, a detection unit that detects an attitude of the operation device operated by the user;
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. A generation unit for generating an execution command;
An information processing apparatus comprising: a transmission unit that transmits the generated execution command and the acquired motion information or the detected posture detection information to an operation target device of the operation device;
Information on a plurality of coordinate ranges represented in a virtual plane area for defining a plurality of operation areas and information on a plurality of operation commands respectively corresponding to the plurality of operation areas are stored in association with each other. A storage unit;
A receiving unit for receiving information transmitted from the information processing apparatus;
When the execution command is received by the receiving unit, an operation command corresponding to one coordinate range of the plurality of coordinate ranges that can be selected according to the received motion information or posture detection information is executed. An information processing system comprising an operation target device having an execution unit.
(12) a housing including a surface having a plurality of operation areas;
A first sensor for detecting movement of the housing;
A second sensor capable of detecting an external force on the plurality of operation areas;
An acquisition unit that acquires movement information detected by the first sensor when the operation device is operated so as to rotate by the user while the operation device is placed on the operation surface;
A storage unit that associates and stores information on a plurality of postures of the operation device and information on a plurality of operation commands respectively corresponding to the plurality of operation regions for defining the plurality of operation regions;
Based on the acquired movement information, a detection unit that detects an attitude of the operation device operated by the user;
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. A generating unit that generates an operation command corresponding to information on a posture that defines an operation region located at a predetermined position on a surface of the casing among the upper side region among the plurality of operation regions;
An operation device comprising: a transmission unit that transmits at least the generated operation command to an operation target device of the operation device.
(13) Information of an operation device having a housing including a surface having a plurality of operation regions, a first sensor that detects movement of the housing, and a second sensor that can detect an external force applied to the plurality of operation regions. A method performed by a processing device,
A plurality of operation device information for defining the plurality of operation regions, and a plurality of operation command information respectively corresponding to the plurality of operation regions are stored in association with each other;
In a state where the operation device is placed on the operation surface, when the operation device is operated so as to rotate by a user, movement information detected by the first sensor is acquired,
Based on the acquired movement information, the posture of the operation device operated by the user is detected,
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. Generating an operation command corresponding to posture information defining an operation region located at a predetermined position on the surface of the casing among the plurality of operation regions,
An information processing method for transmitting at least the generated operation command to an operation target device of the operation device.

1…MCU
5…加速度センサ
6…角速度センサ
7…磁気センサ
8…圧力センサ
9…通信機
10、110、210、310、410…操作デバイス
11、111、211…筐体
15、105…操作領域
15V…鉛直操作領域
50…表示デバイス
53…CPU
56…通信部
57…記憶部
58…関連画像
65…関連画像
90…操作面
1 ... MCU
DESCRIPTION OF SYMBOLS 5 ... Acceleration sensor 6 ... Angular velocity sensor 7 ... Magnetic sensor 8 ... Pressure sensor 9 ... Communication apparatus 10, 110, 210, 310, 410 ... Operation device 11, 111, 211 ... Case 15, 105 ... Operation area 15V ... Vertical operation Area 50 ... Display device 53 ... CPU
56 ... Communication unit 57 ... Storage unit 58 ... Related image 65 ... Related image 90 ... Operation surface

Claims (12)

複数の操作領域を有する表面を含む筺体と、前記筺体の動きを検出する第1のセンサと、前記複数の操作領域に対する外力を検出可能な第2のセンサとを有する操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得する取得部と、
前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する記憶部と、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する検知部と、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成する生成部と、
少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する送信部とを具備し、
前記操作デバイスは、前記第1のセンサとして、ローカル座標系における直交3軸の検出軸を有する加速度センサ、前記直交3軸の検出軸を有する角速度センサ及び前記直交3軸の検出軸を有する磁気センサを備えた操作デバイスであり、
前記取得部は、前記加速度センサ、前記角速度センサ及び前記磁気センサでそれぞれ検出された加速度、角速度及び磁気強度の情報を、前記動き情報として取得し、
前記検知部は、
3次元空間を表すグローバル座標系における前記操作デバイスの姿勢角度の情報を用いて、前記取得部で取得された前記角速度及び加速度を、前記グローバル座標系におけるグローバル角速度及びグローバル加速度にそれぞれ変換する座標変換部と、
前記ユーザーによる前記操作デバイスの操作の開始時に前記取得部で取得された前記加速度及び前記磁気強度の情報に基づき、前記姿勢角度のうち、前記操作デバイスの前記グローバル座標系における初期の前記姿勢角度である初期姿勢角度を算出する初期姿勢角度算出部と、
前記座標変換部で変換された前記グローバル角速度の情報に基づき、前記操作デバイスの前記グローバル座標系における前記姿勢角度を更新する更新部と、
前記座標変換部に、前記初期姿勢角度算出部で算出された前記初期姿勢角度の情報を用いて、前記操作の開始時に前記取得部で取得された第1の角速度及び第1の加速度を前記グローバル角速度及び前記グローバル加速度にそれぞれ変換させ、前記更新された姿勢角度の情報を用いて、前記第1の角速度及び第1の加速度が取得された後に取得された第2の角速度及び第2の加速度を、前記グローバル角速度及び前記グローバル加速度にそれぞれ変換させる制御部とを有する
情報処理装置。
An operation device having a housing including a surface having a plurality of operation regions, a first sensor that detects movement of the housing, and a second sensor that can detect an external force applied to the plurality of operation regions is placed on the operation surface. An acquisition unit that acquires movement information detected by the first sensor when the operation device is operated so as to rotate by a user in a state in which the operation device is rotated;
A storage unit that associates and stores information on a plurality of postures of the operation device and information on a plurality of operation commands respectively corresponding to the plurality of operation regions for defining the plurality of operation regions;
Based on the acquired movement information, a detection unit that detects an attitude of the operation device operated by the user;
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. A generating unit that generates an operation command corresponding to information on a posture that defines an operation region located at a predetermined position on a surface of the casing among the upper side region among the plurality of operation regions;
A transmission unit that transmits at least the generated operation command to an operation target device of the operation device ;
The operation device includes, as the first sensor, an acceleration sensor having three orthogonal detection axes in a local coordinate system, an angular velocity sensor having the three orthogonal detection axes, and a magnetic sensor having the three orthogonal detection axes. An operating device with
The acquisition unit acquires information on acceleration, angular velocity, and magnetic intensity detected by the acceleration sensor, the angular velocity sensor, and the magnetic sensor, respectively, as the movement information,
The detector is
Coordinate transformation that converts the angular velocity and acceleration acquired by the acquisition unit into global angular velocity and global acceleration in the global coordinate system using information on the attitude angle of the operation device in a global coordinate system representing a three-dimensional space, respectively. And
Based on the information on the acceleration and the magnetic strength acquired by the acquisition unit at the start of operation of the operation device by the user, among the posture angles, the initial posture angle in the global coordinate system of the operation device An initial posture angle calculation unit for calculating an initial posture angle;
An update unit that updates the posture angle in the global coordinate system of the operation device based on the information on the global angular velocity converted by the coordinate conversion unit;
Using the information on the initial posture angle calculated by the initial posture angle calculation unit, the coordinate conversion unit obtains the first angular velocity and the first acceleration acquired by the acquisition unit at the start of the operation as the global The second angular velocity and the second acceleration acquired after the first angular velocity and the first acceleration are acquired using the updated attitude angle information, respectively converted into the angular velocity and the global acceleration. And an information processing apparatus having a control unit that converts the global angular velocity and the global acceleration, respectively .
請求項1に記載の情報処理装置であって、
前記生成部は、前記複数の操作領域のうち、前記3次元空間内における鉛直軸が通る鉛直操作領域を前記所定位置に位置する操作領域として、前記鉛直操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成する
情報処理装置。
The information processing apparatus according to claim 1,
The generation unit corresponds to information on the posture that defines the vertical operation area, with a vertical operation area through which a vertical axis in the three-dimensional space passes as an operation area located at the predetermined position among the plurality of operation areas. An information processing apparatus that generates the operation command to be performed.
請求項2に記載の情報処理装置であって、
前記生成部は、前記鉛直操作領域が前記ユーザーにより押されたことが検出された場合、前記鉛直操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成する
情報処理装置。
An information processing apparatus according to claim 2,
The generation unit generates the operation command corresponding to information on the posture that defines the vertical operation area when it is detected that the vertical operation area is pressed by the user.
請求項2に記載の情報処理装置であって、
前記生成部は、前記上部側領域のうち、前記鉛直操作領域に隣接する少なくとも1つの操作領域を画定する前記姿勢の情報に対応する前記操作コマンドを生成可能である
情報処理装置。
An information processing apparatus according to claim 2,
The information processing apparatus can generate the operation command corresponding to the posture information that defines at least one operation region adjacent to the vertical operation region in the upper side region.
請求項1から4のうちいずれか1項に記載の情報処理装置であって、
前記操作対象機器は、前記複数の操作領域にそれぞれ関連する複数の関連画像を表示のために出力可能であり、
前記送信部は、前記複数の関連画像のうち、少なくとも前記所定位置に位置する前記操作領域に関連する関連画像を、前記動き情報に基づき前記操作対象機器に表示のために出力させるために、前記取得された動き情報または前記検知された姿勢の検知情報を前記操作対象機器へ送信する
情報処理装置。
The information processing apparatus according to any one of claims 1 to 4,
The operation target device can output a plurality of related images respectively related to the plurality of operation areas for display,
The transmission unit is configured to cause the operation target device to output, for display, a related image related to the operation region located at the predetermined position among the plurality of related images, based on the motion information. An information processing apparatus that transmits acquired motion information or detection information of the detected posture to the operation target device.
請求項5に記載の情報処理装置であって、
前記送信部は、前記所定位置に位置する前記操作領域に関連する関連画像を、前記操作デバイスの動きに応じて選択的に強調表示させるために、前記取得された動き情報または前記検知された姿勢の検知情報を前記操作対象機器へ送信する
情報処理装置。
The information processing apparatus according to claim 5,
The transmission unit acquires the motion information acquired or the detected posture in order to selectively highlight a related image related to the operation region located at the predetermined position according to the motion of the operation device. An information processing device that transmits the detection information to the operation target device.
請求項1から6のうちいずれか1項に記載の情報処理装置であって、
前記操作デバイスの前記筺体の表面のうち、少なくとも、前記操作面に接触する面が球面である
情報処理装置。
The information processing apparatus according to any one of claims 1 to 6,
Of the surfaces of the casing of the operation device, at least a surface in contact with the operation surface is a spherical surface.
請求項1から7のうちいずれか1項に記載の情報処理装置であって、
前記操作デバイスは、前記筺体の表面に設けられた、前記複数の操作領域にそれぞれ関連する複数の関連画像を表示するディスプレイを有する
情報処理装置。
The information processing apparatus according to any one of claims 1 to 7,
The operation device includes a display that is provided on a surface of the housing and displays a plurality of related images respectively associated with the plurality of operation regions.
請求項5、6、または8のうちいずれか1項に記載の情報処理装置であって、
前記検知部による、前記操作デバイスの姿勢の検知情報の出力を停止するか、または、前記送信部による前記動き情報の前記操作対象機器への送信を停止する停止部と、
前記第2のセンサによる所定の外力が検出された場合、前記停止部による前記送信の停止を解除する解除部と
をさらに具備する情報処理装置。
The information processing apparatus according to any one of claims 5, 6, and 8,
Stop the output of the detection information of the attitude of the operation device by the detection unit, or a stop unit to stop transmission of the motion information to the operation target device by the transmission unit,
An information processing apparatus further comprising: a release unit that cancels the stop of the transmission by the stop unit when a predetermined external force is detected by the second sensor.
複数の操作領域を有する表面を含む筺体と、前記筺体の動きを検出する第1のセンサと、前記複数の操作領域に対する外力を検出可能な第2のセンサとを有する操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得する取得部と、
前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する記憶部と、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する検知部と、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成する生成部と、
少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する送信部と、を含む情報処理装置と、
少なくとも前記送信された操作コマンドを受信する受信部と、
前記受信された操作コマンドの情報に基づき、前記複数の操作領域にそれぞれ関連する関連画像を表示のために出力する出力部と、を含む操作対象機器とを具備し、
前記操作デバイスは、前記第1のセンサとして、ローカル座標系における直交3軸の検出軸を有する加速度センサ、前記直交3軸の検出軸を有する角速度センサ及び前記直交3軸の検出軸を有する磁気センサを備えた操作デバイスであり、
前記取得部は、前記加速度センサ、前記角速度センサ及び前記磁気センサでそれぞれ検出された加速度、角速度及び磁気強度の情報を、前記動き情報として取得し、
前記検知部は、
3次元空間を表すグローバル座標系における前記操作デバイスの姿勢角度の情報を用いて、前記取得部で取得された前記角速度及び加速度を、前記グローバル座標系におけるグローバル角速度及びグローバル加速度にそれぞれ変換する座標変換部と、
前記ユーザーによる前記操作デバイスの操作の開始時に前記取得部で取得された前記加速度及び前記磁気強度の情報に基づき、前記姿勢角度のうち、前記操作デバイスの前記グローバル座標系における初期の前記姿勢角度である初期姿勢角度を算出する初期姿勢角度算出部と、
前記座標変換部で変換された前記グローバル角速度の情報に基づき、前記操作デバイスの前記グローバル座標系における前記姿勢角度を更新する更新部と、
前記座標変換部に、前記初期姿勢角度算出部で算出された前記初期姿勢角度の情報を用いて、前記操作の開始時に前記取得部で取得された第1の角速度及び第1の加速度を前記グローバル角速度及び前記グローバル加速度にそれぞれ変換させ、前記更新された姿勢角度の情報を用いて、前記第1の角速度及び第1の加速度が取得された後に取得された第2の角速度及び第2の加速度を、前記グローバル角速度及び前記グローバル加速度にそれぞれ変換させる制御部とを有する
情報処理システム。
An operation device having a housing including a surface having a plurality of operation regions, a first sensor that detects movement of the housing, and a second sensor that can detect an external force applied to the plurality of operation regions is placed on the operation surface. An acquisition unit that acquires movement information detected by the first sensor when the operation device is operated so as to rotate by a user in a state in which the operation device is rotated;
A storage unit that associates and stores information on a plurality of postures of the operation device and information on a plurality of operation commands respectively corresponding to the plurality of operation regions for defining the plurality of operation regions;
Based on the acquired movement information, a detection unit that detects an attitude of the operation device operated by the user;
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. A generating unit that generates an operation command corresponding to information on a posture that defines an operation region located at a predetermined position on a surface of the casing among the upper side region among the plurality of operation regions;
An information processing apparatus including: a transmission unit that transmits at least the generated operation command to an operation target device of the operation device;
A receiving unit for receiving at least the transmitted operation command;
An output unit that outputs, for display, related images respectively associated with the plurality of operation areas based on the information of the received operation commands, and includes an operation target device .
The operation device includes, as the first sensor, an acceleration sensor having three orthogonal detection axes in a local coordinate system, an angular velocity sensor having the three orthogonal detection axes, and a magnetic sensor having the three orthogonal detection axes. An operating device with
The acquisition unit acquires information on acceleration, angular velocity, and magnetic intensity detected by the acceleration sensor, the angular velocity sensor, and the magnetic sensor, respectively, as the movement information,
The detector is
Coordinate transformation that converts the angular velocity and acceleration acquired by the acquisition unit into global angular velocity and global acceleration in the global coordinate system using information on the attitude angle of the operation device in a global coordinate system representing a three-dimensional space, respectively. And
Based on the information on the acceleration and the magnetic strength acquired by the acquisition unit at the start of operation of the operation device by the user, among the posture angles, the initial posture angle in the global coordinate system of the operation device An initial posture angle calculation unit for calculating an initial posture angle;
An update unit that updates the posture angle in the global coordinate system of the operation device based on the information on the global angular velocity converted by the coordinate conversion unit;
Using the information on the initial posture angle calculated by the initial posture angle calculation unit, the coordinate conversion unit obtains the first angular velocity and the first acceleration acquired by the acquisition unit at the start of the operation as the global The second angular velocity and the second acceleration acquired after the first angular velocity and the first acceleration are acquired using the updated attitude angle information, respectively converted into the angular velocity and the global acceleration. And an information processing system including a control unit that converts the global angular velocity and the global acceleration, respectively .
筺体と、前記筺体の動きを検出する第1のセンサと、前記筺体に対する外力を検出可能な第2のセンサとを有する操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報を取得する取得部と、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する検知部と、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、実行コマンドを生成する生成部と、
前記生成された実行コマンドと、前記取得された動き情報または前記検知された姿勢の検知情報とを、前記操作デバイスの操作対象機器へ送信する送信部と、を含む情報処理装置と、
複数の操作領域をそれぞれ画定するための、仮想的な平面領域に表された複数の座標範囲の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する記憶部と、
前記情報処理装置から送信された情報を受信する受信部と、
前記実行コマンドが受信部により受信された場合、前記受信された動き情報または姿勢の検知情報に応じて選択され得る、前記複数の座標範囲のうちの1つの座標範囲に対応する操作コマンドを実行する実行部と、を有する操作対象機器とを具備し、
前記操作デバイスは、前記第1のセンサとして、ローカル座標系における直交3軸の検出軸を有する加速度センサ、前記直交3軸の検出軸を有する角速度センサ及び前記直交3軸の検出軸を有する磁気センサを備えた操作デバイスであり、
前記取得部は、前記加速度センサ、前記角速度センサ及び前記磁気センサでそれぞれ検出された加速度、角速度及び磁気強度の情報を、前記動き情報として取得し、
前記検知部は、
3次元空間を表すグローバル座標系における前記操作デバイスの姿勢角度の情報を用いて、前記取得部で取得された前記角速度及び加速度を、前記グローバル座標系におけるグローバル角速度及びグローバル加速度にそれぞれ変換する座標変換部と、
前記ユーザーによる前記操作デバイスの操作の開始時に前記取得部で取得された前記加速度及び前記磁気強度の情報に基づき、前記姿勢角度のうち、前記操作デバイスの前記グローバル座標系における初期の前記姿勢角度である初期姿勢角度を算出する初期姿勢角度算出部と、
前記座標変換部で変換された前記グローバル角速度の情報に基づき、前記操作デバイスの前記グローバル座標系における前記姿勢角度を更新する更新部と、
前記座標変換部に、前記初期姿勢角度算出部で算出された前記初期姿勢角度の情報を用いて、前記操作の開始時に前記取得部で取得された第1の角速度及び第1の加速度を前記グローバル角速度及び前記グローバル加速度にそれぞれ変換させ、前記更新された姿勢角度の情報を用いて、前記第1の角速度及び第1の加速度が取得された後に取得された第2の角速度及び第2の加速度を、前記グローバル角速度及び前記グローバル加速度にそれぞれ変換させる制御部とを有する
情報処理システム。
The operation device is rotated by a user in a state where an operation device having a housing, a first sensor that detects the movement of the housing, and a second sensor that can detect an external force applied to the housing is placed on the operation surface. An acquisition unit that acquires movement information detected by the first sensor when operated to
Based on the acquired movement information, a detection unit that detects an attitude of the operation device operated by the user;
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. A generation unit for generating an execution command;
An information processing apparatus comprising: a transmission unit that transmits the generated execution command and the acquired motion information or the detected posture detection information to an operation target device of the operation device;
Information on a plurality of coordinate ranges represented in a virtual plane area for defining a plurality of operation areas and information on a plurality of operation commands respectively corresponding to the plurality of operation areas are stored in association with each other. A storage unit;
A receiving unit for receiving information transmitted from the information processing apparatus;
When the execution command is received by the receiving unit, an operation command corresponding to one coordinate range of the plurality of coordinate ranges that can be selected according to the received motion information or posture detection information is executed. An operation target device having an execution unit ,
The operation device includes, as the first sensor, an acceleration sensor having three orthogonal detection axes in a local coordinate system, an angular velocity sensor having the three orthogonal detection axes, and a magnetic sensor having the three orthogonal detection axes. An operating device with
The acquisition unit acquires information on acceleration, angular velocity, and magnetic intensity detected by the acceleration sensor, the angular velocity sensor, and the magnetic sensor, respectively, as the movement information,
The detector is
Coordinate transformation that converts the angular velocity and acceleration acquired by the acquisition unit into global angular velocity and global acceleration in the global coordinate system using information on the attitude angle of the operation device in a global coordinate system representing a three-dimensional space, respectively. And
Based on the information on the acceleration and the magnetic strength acquired by the acquisition unit at the start of operation of the operation device by the user, among the posture angles, the initial posture angle in the global coordinate system of the operation device An initial posture angle calculation unit for calculating an initial posture angle;
An update unit that updates the posture angle in the global coordinate system of the operation device based on the information on the global angular velocity converted by the coordinate conversion unit;
Using the information on the initial posture angle calculated by the initial posture angle calculation unit, the coordinate conversion unit obtains the first angular velocity and the first acceleration acquired by the acquisition unit at the start of the operation as the global The second angular velocity and the second acceleration acquired after the first angular velocity and the first acceleration are acquired using the updated attitude angle information, respectively converted into the angular velocity and the global acceleration. And an information processing system including a control unit that converts the global angular velocity and the global acceleration, respectively .
複数の操作領域を有する表面を含む筺体と、
前記筺体の動きを検出するセンサであって、ローカル座標系における直交3軸の検出軸を有する加速度センサ、前記直交3軸の検出軸を有する角速度センサ及び前記直交3軸の検出軸を有する磁気センサで構成される第1のセンサと、
前記複数の操作領域に対する外力を検出可能な第2のセンサと、
操作デバイスが操作面に置かれた状態で、ユーザーにより前記操作デバイスが回転するように操作される場合に、前記第1のセンサで検出される動き情報として、前記加速度センサ、前記角速度センサ及び前記磁気センサでそれぞれ検出された加速度、角速度及び磁気強度の情報を取得する取得部と、
前記複数の操作領域をそれぞれ画定するための、前記操作デバイスの複数の姿勢の情報と、前記複数の操作領域にそれぞれ対応する複数の操作コマンドの情報とを対応付けて記憶する記憶部と、
前記取得された動き情報に基づき、前記ユーザーにより操作される前記操作デバイスの姿勢を検知する検知部と、
前記検知された前記姿勢を持つ前記筺体の表面のうち前記操作面に接触しない領域であって前記筺体の上部側領域が前記ユーザーにより押されたことが、前記第2のセンサにより検出された場合、前記複数の操作領域のうち、前記上部側領域のうち前記筺体の表面の所定位置に位置する操作領域を画定する姿勢の情報に対応する操作コマンドを生成する生成部と、
少なくとも前記生成された操作コマンドを、前記操作デバイスの操作対象機器へ送信する送信部とを具備し、
前記検知部は、
3次元空間を表すグローバル座標系における前記操作デバイスの姿勢角度の情報を用いて、前記取得部で取得された前記角速度及び加速度を、前記グローバル座標系におけるグローバル角速度及びグローバル加速度にそれぞれ変換する座標変換部と、
前記ユーザーによる前記操作デバイスの操作の開始時に前記取得部で取得された前記加速度及び前記磁気強度の情報に基づき、前記姿勢角度のうち、前記操作デバイスの前記グローバル座標系における初期の前記姿勢角度である初期姿勢角度を算出する初期姿勢角度算出部と、
前記座標変換部で変換された前記グローバル角速度の情報に基づき、前記操作デバイスの前記グローバル座標系における前記姿勢角度を更新する更新部と、
前記座標変換部に、前記初期姿勢角度算出部で算出された前記初期姿勢角度の情報を用いて、前記操作の開始時に前記取得部で取得された第1の角速度及び第1の加速度を前記グローバル角速度及び前記グローバル加速度にそれぞれ変換させ、前記更新された姿勢角度の情報を用いて、前記第1の角速度及び第1の加速度が取得された後に取得された第2の角速度及び第2の加速度を、前記グローバル角速度及び前記グローバル加速度にそれぞれ変換させる制御部とを有する
操作デバイス。
A housing including a surface having a plurality of operation areas;
A sensor for detecting the movement of the housing, an acceleration sensor having three orthogonal detection axes in a local coordinate system, an angular velocity sensor having the three orthogonal detection axes, and a magnetic sensor having the three orthogonal detection axes a first sensor configured in,
A second sensor capable of detecting an external force on the plurality of operation areas;
When the operation device is operated so that the operation device rotates with the operation device placed on the operation surface, the acceleration sensor, the angular velocity sensor, and the motion information detected by the first sensor An acquisition unit for acquiring information on acceleration, angular velocity, and magnetic intensity detected by the magnetic sensor ;
A storage unit that associates and stores information on a plurality of postures of the operation device and information on a plurality of operation commands respectively corresponding to the plurality of operation regions for defining the plurality of operation regions;
Based on the acquired movement information, a detection unit that detects an attitude of the operation device operated by the user;
When the second sensor detects that the user has pressed the upper side area of the casing that is not in contact with the operation surface of the surface of the casing having the detected posture. A generating unit that generates an operation command corresponding to information on a posture that defines an operation region located at a predetermined position on a surface of the casing among the upper side region among the plurality of operation regions;
A transmission unit that transmits at least the generated operation command to an operation target device of the operation device ;
The detector is
Coordinate transformation that converts the angular velocity and acceleration acquired by the acquisition unit into global angular velocity and global acceleration in the global coordinate system using information on the attitude angle of the operation device in a global coordinate system representing a three-dimensional space, respectively. And
Based on the information on the acceleration and the magnetic strength acquired by the acquisition unit at the start of operation of the operation device by the user, among the posture angles, the initial posture angle in the global coordinate system of the operation device An initial posture angle calculation unit for calculating an initial posture angle;
An update unit that updates the posture angle in the global coordinate system of the operation device based on the information on the global angular velocity converted by the coordinate conversion unit;
Using the information on the initial posture angle calculated by the initial posture angle calculation unit, the coordinate conversion unit obtains the first angular velocity and the first acceleration acquired by the acquisition unit at the start of the operation as the global The second angular velocity and the second acceleration acquired after the first angular velocity and the first acceleration are acquired using the updated attitude angle information, respectively converted into the angular velocity and the global acceleration. And a control unit that converts the global angular velocity and the global acceleration, respectively .
JP2011178776A 2011-08-18 2011-08-18 Information processing apparatus, information processing system, and operation device Expired - Fee Related JP5817322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011178776A JP5817322B2 (en) 2011-08-18 2011-08-18 Information processing apparatus, information processing system, and operation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011178776A JP5817322B2 (en) 2011-08-18 2011-08-18 Information processing apparatus, information processing system, and operation device

Publications (3)

Publication Number Publication Date
JP2013041487A JP2013041487A (en) 2013-02-28
JP2013041487A5 JP2013041487A5 (en) 2014-09-18
JP5817322B2 true JP5817322B2 (en) 2015-11-18

Family

ID=47889803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011178776A Expired - Fee Related JP5817322B2 (en) 2011-08-18 2011-08-18 Information processing apparatus, information processing system, and operation device

Country Status (1)

Country Link
JP (1) JP5817322B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5938369B2 (en) * 2013-06-25 2016-06-22 日本電信電話株式会社 Sensing unit
JP5938370B2 (en) * 2013-06-25 2016-06-22 日本電信電話株式会社 Remote control device
US9262064B2 (en) * 2013-07-09 2016-02-16 EZ as a Drink Productions, Inc. Handheld computing platform with integrated pressure sensor and associated methods of use
JP6268987B2 (en) * 2013-11-29 2018-01-31 日本精工株式会社 Spherical coordinate sensor
US10124246B2 (en) * 2014-04-21 2018-11-13 Activbody, Inc. Pressure sensitive peripheral devices, and associated methods of use
JP2020077365A (en) * 2018-11-08 2020-05-21 株式会社齋藤創造研究所 Image display system, operating system, and control method for image display system
WO2021024308A1 (en) * 2019-08-02 2021-02-11 三菱電機株式会社 Display control device and display control method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3421167B2 (en) * 1994-05-03 2003-06-30 アイティユー リサーチ インコーポレイテッド Input device for contact control
GB9928682D0 (en) * 1999-12-06 2000-02-02 Electrotextiles Comp Ltd Input apparatus and a method of generating control signals
JP2005056232A (en) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd Method for displaying operation manual of electronic apparatus
JP5441299B2 (en) * 2006-11-01 2014-03-12 株式会社ソニー・コンピュータエンタテインメント Controller device
JP4690376B2 (en) * 2007-10-18 2011-06-01 株式会社ナナオ Remote control device, remote control system and electrical equipment
WO2011011898A1 (en) * 2009-07-28 2011-02-03 Quasmo Ag Input system, and method

Also Published As

Publication number Publication date
JP2013041487A (en) 2013-02-28

Similar Documents

Publication Publication Date Title
JP5817322B2 (en) Information processing apparatus, information processing system, and operation device
US9829998B2 (en) Information processing apparatus, input apparatus, information processing system, information processing method, and program
JP5810707B2 (en) Information processing device
US8531399B2 (en) Control apparatus, input apparatus, control system, control method, and handheld apparatus
USRE47070E1 (en) Input apparatus, control apparatus, control system, and control method
EP2189880B1 (en) Input device, control device, control system, control method, and hand-held device
JP4702475B2 (en) Input device, handheld device and control method
JP2010152761A (en) Input apparatus, control apparatus, control system, electronic apparatus, and control method
US8199031B2 (en) Input apparatus, control apparatus, control system, control method, and program therefor
US9223422B2 (en) Remote controller and display apparatus, control method thereof
US8395583B2 (en) Input apparatus, control apparatus, control system, control method, and handheld apparatus
JP5561092B2 (en) INPUT DEVICE, INPUT CONTROL SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
US8441436B2 (en) Input apparatus, control apparatus, control system, control method, and handheld apparatus
US10114478B2 (en) Control method, control apparatus, and program
JP5870818B2 (en) Input device, control system, calibration method, and program
JP2011065512A (en) Information processing system, information processing program, operation recognition system, and operation recognition program
JP2011108270A (en) Input device, handheld device and control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150914

R151 Written notification of patent or utility model registration

Ref document number: 5817322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees