JP2018037034A - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JP2018037034A
JP2018037034A JP2016172237A JP2016172237A JP2018037034A JP 2018037034 A JP2018037034 A JP 2018037034A JP 2016172237 A JP2016172237 A JP 2016172237A JP 2016172237 A JP2016172237 A JP 2016172237A JP 2018037034 A JP2018037034 A JP 2018037034A
Authority
JP
Japan
Prior art keywords
controller
head
information processing
sensor
motion sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016172237A
Other languages
Japanese (ja)
Inventor
健太 羽柴
Kenta Hashiba
健太 羽柴
貴信 海上
Takanobu Umigami
貴信 海上
加藤 國彦
Kunihiko Kato
國彦 加藤
栄一 須川
Eiichi Sugawa
栄一 須川
上島 拓
Hiroshi Uejima
拓 上島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tomy Co Ltd
Original Assignee
Tomy Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomy Co Ltd filed Critical Tomy Co Ltd
Priority to JP2016172237A priority Critical patent/JP2018037034A/en
Publication of JP2018037034A publication Critical patent/JP2018037034A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To eliminate the sense of strangeness felt by a user because of aiming error by sensually matching an aiming direction supposed by the user on the basis of an attitude of a controller and an aiming direction actually pointed on the basis of a motion sensor of the controller regardless of variation and change in detection characteristics of the triaxial geomagnetic sensor.SOLUTION: A spatial pointing process includes a calibration process for calibrating a relationship between a reference point pointed by a controller, which is estimated by means of a first motion sensor, and a reference point pointed by a head-mounted gear, which is estimated by means of a second motion sensor, to match the two reference points.SELECTED DRAWING: Figure 13

Description

この発明は、モーションセンサの組み込まれたコントローラとモーションセンサ及びディスプレイの組み込まれた頭部装着具とを備えて、仮想空間におけるヘッドトラッキング表示及び空間ポインティングを可能とした情報処理システムに関する。   The present invention relates to an information processing system that includes a controller in which a motion sensor is incorporated and a head-mounted device in which a motion sensor and a display are incorporated, and enables head tracking display and space pointing in a virtual space.

本出願人は、先に、少なくとも3軸地磁気センサを含む第1のモーションセンサが組み込まれたコントローラと、少なくとも3軸地磁気センサを含む第2のモーションセンサ及びディスプレイが組み込まれた頭部装着具と、第1及び第2のモーションセンサのそれぞれから得られるコントローラ及び頭部装着具の姿勢情報をローカル座標からワールド座標へと変換すると共に、ワールド座標上の各姿勢情報に基づいて、仮想空間におけるヘッドトラッキング表示処理及び空間ポインティング処理を実行する情報処理部とを備えた新規な情報処理システムを提案している(特許文献1参照)。   The applicant previously has a controller in which a first motion sensor including at least a three-axis geomagnetic sensor is incorporated, and a head-mounted device in which a second motion sensor including at least a three-axis geomagnetic sensor and a display are incorporated. The posture information of the controller and the head-mounted device obtained from each of the first and second motion sensors is converted from local coordinates to world coordinates, and the head in the virtual space is converted based on the posture information on the world coordinates. A novel information processing system including an information processing unit that executes tracking display processing and spatial pointing processing has been proposed (see Patent Document 1).

特許第5944600号Patent No. 5944600

上述の情報処理システムによれば、モーションセンサを介して検知されるコントローラや頭部装着具の姿勢は、ローカル座標値からワールド座標値へと変換されたのち、その指し示す方向の判別に利用されるため、その時々の姿勢変化分が現在姿勢に正しく反映されている限り、コントローラの姿勢により指し示したつもりの照準方向とモーションセンサを介して検知される仮想空間上の照準方向との間には、原理的に、大きな感覚的な誤差は生じない筈である。   According to the information processing system described above, the posture of the controller or the head-mounted device detected via the motion sensor is converted from the local coordinate value to the world coordinate value, and then used to determine the pointing direction. Therefore, as long as the change in posture at that time is correctly reflected in the current posture, between the aiming direction intended by the controller's posture and the aiming direction in the virtual space detected via the motion sensor, In principle, no major sensory errors should occur.

しかしながら、コントローラや頭部装着具に組み込まれるモーションセンサを構成する3軸地磁気センサには、製品毎に検知特性のバラツキが少なからず存在するほか、周囲の温度等の環境条件によっても検知特性は少なからず変動することから、この種の情報処理システムにあっては、上述した3軸地磁気センサの検知特性のバラツキや変動に起因して、コントローラで指し示したつもりの照準方向とモーションセンサを介して指し示される照準方向との間には、少なからず感覚的な誤差を生ずることが認められた。   However, the triaxial geomagnetic sensor that constitutes the motion sensor incorporated in the controller and the head-mounted device has many variations in detection characteristics for each product, and the detection characteristics are also small depending on environmental conditions such as ambient temperature. Therefore, in this type of information processing system, it is indicated via the aiming direction and the motion sensor that the controller intends to indicate due to the variation and fluctuation in the detection characteristics of the above-mentioned three-axis geomagnetic sensor. It was found that there was a considerable sensory error between the indicated aiming directions.

この発明は、上述の問題点に着目してなされたものであり、その目的とするところは、ローカル座標からワールド座標へと変換された、コントローラ及び頭部装着具の姿勢を用いて、ヘッドトラッキング表示及び空間ポインティングを可能とする情報処理システムにおいて、コントローラの姿勢を介して指し示したつもりの照準方向とコントローラのモーションセンサを介して指し示される照準方向とを、3軸地磁気センサの検知特性のバラツキや変動に拘わらず感覚的に一致させ、照準の狂いによる操作者の違和感を解消することにある。   The present invention has been made paying attention to the above-mentioned problems, and the object of the present invention is to perform head tracking using the posture of the controller and the head-mounted device converted from local coordinates to world coordinates. In an information processing system that enables display and spatial pointing, variation in detection characteristics of the three-axis geomagnetic sensor indicates the aiming direction that is intended to be indicated through the attitude of the controller and the aiming direction that is indicated through the motion sensor of the controller. It is to match the senses regardless of fluctuations and to eliminate the operator's uncomfortable feeling due to the sight misalignment.

この発明のさらに他の目的並びに作用効果については、明細書の以下の記述を参照することにより、当業者であれば容易に理解される筈である。   Other objects and operational effects of the present invention should be easily understood by those skilled in the art by referring to the following description of the specification.

上述の技術的課題は、以下の構成を有する情報処理システム、及びコンピュータプログラムにより、解決できるものと考えられる。   It is considered that the above technical problem can be solved by an information processing system and a computer program having the following configurations.

すなわち、本発明の情報処理システムは、少なくとも3軸地磁気センサを含む第1のモーションセンサが組み込まれたコントローラと、少なくとも3軸地磁気センサを含む第2のモーションセンサ及びディスプレイが組み込まれた頭部装着具と、前記第1及び第2のモーションセンサのそれぞれから得られる前記コントローラ及び頭部装着具の姿勢情報をローカル座標からワールド座標へと変換すると共に、ワールド座標上の各姿勢情報に基づいて、仮想空間におけるヘッドトラッキング表示処理及び空間ポインティング処理を実行する情報処理部とを備え、前記空間ポインティング処理には、前記第1のモーションセンサを介して推定されるコントローラの指し示す方向の基準点と前記第2のモーションセンサを介して推定される頭部装着具の指し示す方向の基準点とが整合するように両者の関係を校正する校正処理が含まれている。   That is, the information processing system according to the present invention includes a controller in which a first motion sensor including at least a triaxial geomagnetic sensor is incorporated, a head mounted in which a second motion sensor including at least a triaxial geomagnetic sensor and a display are incorporated. And the posture information of the controller and the head-mounted device obtained from each of the first and second motion sensors, from local coordinates to world coordinates, and based on the posture information on the world coordinates, An information processing unit that performs a head tracking display process and a spatial pointing process in a virtual space, and the spatial pointing process includes a reference point in a direction indicated by a controller estimated via the first motion sensor and the first point Head wearing estimated via 2 motion sensors It contains calibration process of calibrating the relationship between the two to be consistent with the reference point in a direction indicated by the can.

このような構成によれば、前記空間ポインティング処理に含まれる校正処理の作用により、コントローラ及び頭部装着具の各推定方向の基準点が整合することとなるため、コントローラの姿勢を介して指し示したつもりの照準方向とコントローラのモーションセンサを介して指し示される照準方向とを、3軸地磁気センサの検知特性のバラツキや変動に拘わらず感覚的に一致させて、照準の狂いによる操作者の違和感を解消することができる。   According to such a configuration, since the reference point of each estimated direction of the controller and the head-mounted device is matched by the action of the calibration process included in the space pointing process, it is indicated through the attitude of the controller. The intended aiming direction and the aiming direction indicated via the motion sensor of the controller are matched sensuously regardless of variations or fluctuations in the detection characteristics of the 3-axis geomagnetic sensor. Can be resolved.

好ましい実施の態様においては、前記校正処理は、所定の操作が行われたとき、前記第1のモーションセンサを介して推定されるコントローラの指し示す方向と前記第2のモーションセンサを介して推定される頭部装着具の指し示す方向との差分を補正値として取得する補正値取得処理と、前記コントローラ及び/又は前記頭部装着具の指し示す方向に対して、以後、前記補正値を加算又は減算することにより、それらの指し示す方向を補正する補正処理とを含む、ものであってもよい。   In a preferred embodiment, the calibration processing is estimated via the second motion sensor and the direction indicated by the controller estimated via the first motion sensor when a predetermined operation is performed. Correction value acquisition processing for acquiring a difference from the direction indicated by the head-mounted device as a correction value, and thereafter adding or subtracting the correction value with respect to the direction indicated by the controller and / or the head-mounted device. The correction process which correct | amends those directions to these may be included.

このような構成によれば、仮想空間上の照準方向とモーションセンサを介して指定される仮想空間上の照準方向との間に誤差が生じたと認められるときには、コントローラにおいて所定の操作を行うことで、その都度、補正値取得処理及び補正処理を実行させることにより、2つのモーションセンサの方向基準を整合させ、照準の狂いによる操作者の違和感を解消することができる。   According to such a configuration, when it is recognized that an error has occurred between the aiming direction in the virtual space and the aiming direction in the virtual space specified via the motion sensor, the controller performs a predetermined operation. By executing the correction value acquisition process and the correction process each time, the direction reference of the two motion sensors can be matched, and the operator's uncomfortable feeling due to misalignment of the aim can be eliminated.

このとき、前記補正値取得処理に先立って、前記コントローラの姿勢を介して照準を合わせるべき標的方向を示すための操作案内をユーザに対して行ってもよい。   At this time, prior to the correction value acquisition process, operation guidance may be given to the user to indicate a target direction to be aimed through the attitude of the controller.

このような構成によれば、補正値取得処理の起動に必要なコントローラの操作方法を案内することにより、ユーザの利便性を向上することができる。   According to such a configuration, user convenience can be improved by guiding the operation method of the controller necessary for starting the correction value acquisition process.

このとき、前記操作案内が、前記ディスプレイの画面上に前記標的方向を示す標的マークを描くことにより、前記コントローラの姿勢を介して前記標的マークを指し示すように仕向けるものであってもよい。   At this time, the operation guidance may be directed to point the target mark through the attitude of the controller by drawing a target mark indicating the target direction on the screen of the display.

このような構成によれば、補正値取得処理を起動させるためには、コントローラの姿勢を介して標的マークを指し示せばよいことをユーザに対して確実に教示することができる。   According to such a configuration, in order to activate the correction value acquisition process, it is possible to reliably tell the user that the target mark has to be pointed through the attitude of the controller.

このとき、前記標的方向が前記ディスプレイの画面中心を指し示す方向であれば、敢えて、ディスプレイの画面上に標的方向を示す標的マークを描かずとも、ユーザに対して標的方向を容易に教示することができる。   At this time, if the target direction is a direction indicating the screen center of the display, the target direction can be easily taught to the user without drawing a target mark indicating the target direction on the display screen. it can.

好ましい実施の態様においては、前記校正処理は、前記情報処理システムにおいて、任意のアプリケーションプログラムを実行するに際して、その開始時点で実行可能とされていてもよい。   In a preferred embodiment, the calibration process may be executable at the start of executing any application program in the information processing system.

このような構成によれば、3軸地磁気センサの製品毎の検知特性バラツキに起因して当初から存在する照準の狂いに対応することができる。   According to such a configuration, it is possible to cope with the aiming deviation that originally exists due to variations in detection characteristics of each product of the three-axis geomagnetic sensor.

好ましい実施の態様においては、前記校正処理は、前記情報処理システムにおいて、任意のアプリケーションプログラムを実行するに際して、その開始後の任意の時点で所定のトリガー操作に応答して実行可能とされていてもよい。   In a preferred embodiment, the calibration process may be executed in response to a predetermined trigger operation at an arbitrary time after the start of execution of an arbitrary application program in the information processing system. Good.

このような構成によれば、3軸地磁気センサの検知特性における経時的変化に起因する照準の狂いに対応することができる。   According to such a configuration, it is possible to cope with a misalignment of the aim due to the change over time in the detection characteristics of the triaxial geomagnetic sensor.

好ましい実施の態様においては、前記情報処理部が、前記頭部装着具に組み込まれ、かつ前記コントローラと通信可能なスマートフォンであり、かつ前記第2のモーションセンサ及び前記ディスプレイが、前記スマートフォンに組み込まれたモーションセンサ及びディスプレイであってもよい。   In a preferred embodiment, the information processing unit is a smartphone incorporated in the head-mounted device and capable of communicating with the controller, and the second motion sensor and the display are incorporated in the smartphone. Motion sensors and displays.

このような構成によれば、市販のスマートフォンを所持するユーザであれば、頭部装着具とコントローラとに加えて、スマートフォン上で動作する所定のアプリケーションプログラムを購入するだけで済むから、この種の情報処理システムを低コストに実現することができる。   According to such a configuration, since it is only necessary to purchase a predetermined application program that operates on the smartphone in addition to the head-mounted device and the controller, this type of user can possess this type of smartphone. An information processing system can be realized at low cost.

別の一面から見た本発明は、スマートフォンを、上述の情報処理システムに組み込まれたスマートフォンとして機能させるためのコンピュータプログラムとして把握することもできる。   The present invention viewed from another aspect can also be grasped as a computer program for causing a smartphone to function as a smartphone incorporated in the information processing system described above.

このようなコンピュータプログラムによれば、コントローラと頭部装着具とスマートフォンとを用意するだけで、本発明の情報処理システムを実現することができる。   According to such a computer program, the information processing system of the present invention can be realized only by preparing a controller, a head-mounted device, and a smartphone.

本発明によれば、前記空間ポインティング処理に含まれる校正処理の作用により、コントローラ及び頭部装着具の各推定方向の基準点が整合することとなるため、コントローラの姿勢を介して指し示したつもりの照準方向とコントローラのモーションセンサを介して指し示される照準方向とを、3軸地磁気センサの検知特性のバラツキや変動に拘わらず感覚的に一致させて、照準の狂いによる操作者の違和感を解消することができる。   According to the present invention, the reference point of each estimated direction of the controller and the head-mounted device is matched by the action of the calibration process included in the space pointing process, and therefore it is intended to be indicated through the attitude of the controller. The aiming direction and the aiming direction indicated via the motion sensor of the controller are matched sensuously regardless of variations or fluctuations in the detection characteristics of the 3-axis geomagnetic sensor, thus eliminating the operator's uncomfortable feeling due to misalignment of the aiming. be able to.

図1は、システムの使用状態を示す説明図である。FIG. 1 is an explanatory diagram showing a use state of the system. 図2は、頭部装着具の外観を示す斜視図である。FIG. 2 is a perspective view showing an appearance of the head-mounted device. 図3は、頭部装着具へのスマートフォン組み込み手順の説明図である。FIG. 3 is an explanatory diagram of a procedure for incorporating the smartphone into the head-mounted device. 図4は、頭部装着具の使用状態を示す説明図である。FIG. 4 is an explanatory diagram illustrating a usage state of the head-mounted device. 図5は、スマートフォンの電気的ハードウェア構成を示すブロック図である。FIG. 5 is a block diagram showing an electrical hardware configuration of the smartphone. 図6は、コントローラの外観を示す斜視図である。FIG. 6 is a perspective view showing the appearance of the controller. 図7は、コントローラの電気的ハードウェア構成を示すブロック図である。FIG. 7 is a block diagram showing an electrical hardware configuration of the controller. 図8は、全天球パノラマ画像の概念図である。FIG. 8 is a conceptual diagram of an omnidirectional panoramic image. 図9は、ローカル座標空間とワールド座標空間との関係を示す概念図である。FIG. 9 is a conceptual diagram showing the relationship between the local coordinate space and the world coordinate space. 図10は、アプリケーションプログラム開始時の初期画面の説明図である。FIG. 10 is an explanatory diagram of an initial screen when an application program is started. 図11は、校正時の操作方法を示す説明図である。FIG. 11 is an explanatory diagram showing an operation method during calibration. 図12は、アプリケーションプログラム実行のための準備作業を示すフローチャートである。FIG. 12 is a flowchart showing preparation work for executing the application program. 図13は、処理の全体を概略的に示すゼネラルフローチャートである。FIG. 13 is a general flowchart schematically showing the entire process. 図14は、各処理の詳細を示すフローチャート(その1)である。FIG. 14 is a flowchart (part 1) showing details of each process. 図15は、各処理の詳細を示すフローチャート(その2)である。FIG. 15 is a flowchart (part 2) showing details of each process. 図16は、開始時校正処理の詳細フローチャートである。FIG. 16 is a detailed flowchart of the start time calibration process. 図17は、開始後校正処理の詳細フローチャートである。FIG. 17 is a detailed flowchart of the post-start calibration process. 図18は、水平180度パノラマ画像の概念図である。FIG. 18 is a conceptual diagram of a horizontal 180 degree panoramic image. 図19は、半天球パノラマ画像の概念図である。FIG. 19 is a conceptual diagram of a hemisphere panoramic image. 図20は、情報処理部を独立に有するシステムの使用状態を示す説明図である。FIG. 20 is an explanatory diagram illustrating a usage state of a system having an information processing unit independently.

以下に、本発明に係る情報処理システムの好適な実施の一形態を添付図面にしたがって詳細に説明する。   Hereinafter, a preferred embodiment of an information processing system according to the present invention will be described in detail with reference to the accompanying drawings.

<情報処理システムの一般的な構成について>
先に説明したように、本出願に係る情報処理システムは、少なくとも3軸地磁気センサを含む第1のモーションセンサが組み込まれたコントローラと、少なくとも3軸地磁気センサを含む第2のモーションセンサ及びディスプレイが組み込まれた頭部装着具と、前記第1及び第2のモーションセンサのそれぞれから得られる前記コントローラ及び頭部装着具の姿勢情報をローカル座標からワールド座標へと変換すると共に、ワールド座標上の各姿勢情報に基づいて、仮想空間におけるヘッドトラッキング表示処理及び空間ポインティング処理を実行する情報処理部とを備え、前記空間ポインティング処理には、前記第1のモーションセンサを介して推定されるコントローラの指し示す方向の基準点と前記第2のモーションセンサを介して推定される頭部装着具の指し示す方向の基準点とが整合するように両者の関係を校正する校正処理が含まれているが含まれている。
<General configuration of information processing system>
As described above, the information processing system according to the present application includes a controller in which a first motion sensor including at least a triaxial geomagnetic sensor is incorporated, and a second motion sensor and display including at least a triaxial geomagnetic sensor. The posture information of the built-in head-mounted tool, the controller and the head-mounted tool obtained from each of the first and second motion sensors is converted from local coordinates to world coordinates, An information processing unit that performs a head tracking display process and a spatial pointing process in a virtual space based on the posture information, and the spatial pointing process includes a direction indicated by the controller estimated via the first motion sensor Estimated via the reference point and the second motion sensor A reference point in the direction indicated by the head mounting device which is included but contains calibration process of calibrating the relationship between the two to be consistent.

コントローラとしては、手持ち型(ハンドヘルド型)又は身体装着型(ウェアラブル型)として構成され、その外観形状としては、その姿勢により任意の方向を指し示す、狙いを定める、又は照準を合わせるのに便利な形状であることが好ましい。   The controller is configured as a hand-held type (hand-held type) or a body-mounted type (wearable type), and its external shape is a convenient shape for pointing in any direction, aiming, or aiming. It is preferable that

コントローラに組み込まれる第1のモーションセンサとしては、3軸地磁気センサと3軸加速度センサとを組み合わせたもの、又は3軸地磁気センサと3軸加速度センサと3軸角速度センサとを組み合わせたものが好ましい。それらのセンサは、コントローラ本体に対して一定の姿勢で取り付けられる。   The first motion sensor incorporated in the controller is preferably a combination of a triaxial geomagnetic sensor and a triaxial acceleration sensor, or a combination of a triaxial geomagnetic sensor, a triaxial acceleration sensor, and a triaxial angular velocity sensor. Those sensors are attached to the controller body in a fixed posture.

なお、コントローラには、上述の第1のモーションセンサの他に、1又は2以上の操作子、並びに、それらの操作子の操作により生成される信号を処理したり、外部との通信を行うための情報処理部が設けられても良い。   In addition to the above-described first motion sensor, the controller processes one or more operators, and signals generated by the operations of those operators, and communicates with the outside. An information processing unit may be provided.

頭部装着具としては、ヘッドギア型、メガネ型、帽子型、ヘアバンド型等々、要するに、手を離した状態でも頭部に保持されて、ユーザの眼前に対向するようにしてディスプレイを支えることができるものであれば、差し支えない。   Headgear type, glasses type, hat type, hairband type, etc., in other words, it is held by the head even when released, and supports the display so as to face the user's eyes If it is possible, there is no problem.

頭部装着具に組み込まれる第2のモーションセンサとしても、3軸地磁気センサと3軸加速度センサとを組み合わせたもの、又は3軸地磁気センサと3軸加速度センサと3軸角速度センサとを組み合わせたものが好ましい。それらのセンサは、頭部装着具に対して一定の姿勢で取り付けられる。後述するように、それらのセンサは、所謂スマートフォン等と称される携帯型高機能情報端末に組み込まれたもので代用することもできる。   As the second motion sensor incorporated in the head-mounted device, a combination of a three-axis geomagnetic sensor and a three-axis acceleration sensor, or a combination of a three-axis geomagnetic sensor, a three-axis acceleration sensor, and a three-axis angular velocity sensor Is preferred. Those sensors are attached to the head-mounted device in a fixed posture. As will be described later, those sensors incorporated in a portable high-performance information terminal called a so-called smartphone or the like can be substituted.

頭部装着具に組み込まれる(取り付けられるの意味も含まれる)ディスプレイとしては、ディスプレイ装置単独のものでもよいし、所謂スマートフォン等と称される携帯型高機能情報端末の表示画面で代用するものであってもよい。なお、ディスプレイのデバイスとしてはカラー液晶デバイスやカラー有機ELデバイス等で構成すればよい。   The display incorporated in the head-mounted device (including the meaning of being attached) may be a display device alone, or may be substituted with a display screen of a portable high-performance information terminal called a so-called smartphone or the like. There may be. The display device may be a color liquid crystal device or a color organic EL device.

情報処理部とは、そのような機能を有する手段を総称するもので、具体的には、コントローラや頭部装着具とは別に単独で設けられる1個の情報処理部(パーソナルコンピュータ、ゲーム用コンピュータ等々)70で構成することもできるほか(図20参照)、後述するように、頭部装着具にスマートフォンが組み込まれる場合には、当該スマートフォンの情報処理部(制御部501)にて代用することもできる(図5参照)。さらに、その機能を頭部に組み込まれるスマートフォンの情報処理部(CPU)とコントローラに組み込まれる情報処理部(CPU)とで分担するものであってもよい。   The information processing unit is a general term for means having such a function. Specifically, one information processing unit (personal computer, game computer provided separately from the controller and the head-mounted device) is provided. Etc.), etc. (see FIG. 20), as will be described later, when a smartphone is incorporated in the head-mounted device, the information processing unit (control unit 501) of the smartphone substitutes for it. (See FIG. 5). Further, the function may be shared between an information processing unit (CPU) of a smartphone incorporated in the head and an information processing unit (CPU) incorporated in the controller.

なお、3軸地磁気センサとは、当業者には、よく知られているように、磁気センサの一種であって、地磁気の向きを検知し,方位を直交3軸(X軸、Y軸、Z軸)の値で算出するセンサを言う。すなわち、このセンサは、前後方向と左右方向の第1、第2の磁気センサに加えて上下方向の地磁気を検出する第3の地磁気センサを持っている。このため、たとえば、操作子を持つ角度に電子コンパスを傾けた状態でも、何度傾けて持っているかがわかれば、その傾き分を差し引いて水平方向の地磁気を計算し、正しい方位を表示できる。3軸地磁気センサに組み込まれる地磁気センサICで利用されている磁気センサ素子には主に3種類が知られている。それらは、MR(magneto-resistive)素子,MI(magneto-impedance)素子,ホール素子である。MR素子は、例えば外部磁界の強度変化とともに抵抗値が変わるパーマロイ(NiFe)など金属軟磁性体のMR効果、MI素子は外部磁界が変動したときにインピーダンスが変わるアモルファス・ワイヤのMI効果を利用する。ワイヤにはパルス電流を流しておく。ホール素子では,半導体のホール効果によって生じた電位差を検出することで,外部磁界の変化を測定する。地磁気センサICには、一般にこうした磁気センサ素子のほか,駆動回路や増幅回路などを内蔵している。   As is well known to those skilled in the art, the three-axis geomagnetic sensor is a type of magnetic sensor that detects the direction of geomagnetism and has three orthogonal axes (X axis, Y axis, Z axis). A sensor that is calculated by the value of (axis). That is, this sensor has a third geomagnetic sensor that detects the vertical geomagnetism in addition to the first and second magnetic sensors in the front-rear direction and the left-right direction. For this reason, for example, even when the electronic compass is tilted at an angle with the operating element, if it is determined how many times the electronic compass is tilted, the horizontal magnetism can be calculated by subtracting the tilt and the correct orientation can be displayed. There are mainly three types of magnetic sensor elements that are used in geomagnetic sensor ICs incorporated in triaxial geomagnetic sensors. They are MR (magneto-resistive) elements, MI (magneto-impedance) elements, and Hall elements. The MR element uses, for example, the MR effect of a soft metal magnetic material such as permalloy (NiFe) whose resistance value changes with the intensity change of the external magnetic field, and the MI element uses the MI effect of an amorphous wire whose impedance changes when the external magnetic field changes. . A pulse current is allowed to flow through the wire. The Hall element measures the change in the external magnetic field by detecting the potential difference caused by the Hall effect of the semiconductor. In addition to such magnetic sensor elements, the geomagnetic sensor IC generally incorporates a drive circuit, an amplifier circuit, and the like.

3軸加速度センサとは、当業者にはよく知られているように、X軸・Y軸・Z軸の3方向の加速度を1つのデバイスで測定できるセンサであって、3次元の加速度が検出でき、重力(静的加速度)の計測にも対応できる。3軸加速度センサの多くは、半導体製造技術やレーザ加工技術などの微細加工技術を応用し、シリコン基板上に微小な機械構造を集積化する「微小電気機械素子創製技術(Micro Electro Mechanical Systems、MEMS、メムス、マイクロマシン)」により小型化されたMEMSセンサである。MEMS・3軸加速度センサは、±数gの範囲の測定が可能で、0Hz〜数百Hzまでの加速度変動に追従できる「low g」タイプとよばれる。この場合の0Hzというのは、センサに重力加速度のみが加わっている状態であり、このときのX軸・Y軸・Z軸の加速ベクトルの合計から地面に対しての向きを測定することができる。MEMS・3軸加速度センサは、大きく分けて半導体ピエゾ抵抗型3軸加速度センサ、静電容量型3軸加速度センサ、熱検知型(ガス温度分布型)3軸加速度センサの3種類があり、それぞれ加速度の測定方法が異なる。半導体ピエゾ抵抗型3軸加速度センサは、加速度が錘に作用したときに発生するダイアフラムの歪みを検出して加速度を測定する。静電容量型3軸加速度センサは加速度の測定に静電容量の変化を、熱検知型(ガス温度分布型)3軸加速度センサは、ヒータで熱されたガスの移動を利用して加速度を測定する。   As is well known to those skilled in the art, a three-axis acceleration sensor is a sensor that can measure the acceleration in the three directions of the X-axis, Y-axis, and Z-axis with a single device, and detects three-dimensional acceleration. It can also be used to measure gravity (static acceleration). Many 3-axis accelerometers apply microfabrication technology such as semiconductor manufacturing technology and laser processing technology to integrate micromechanical elements on a silicon substrate. “Micro Electro Mechanical Systems, MEMS” , Mems, Micromachine) ”. The MEMS triaxial acceleration sensor can be measured in a range of ± several g, and is called a “low g” type capable of following acceleration fluctuations from 0 Hz to several hundred Hz. In this case, 0 Hz is a state in which only gravitational acceleration is applied to the sensor, and the direction to the ground can be measured from the sum of the X-axis, Y-axis, and Z-axis acceleration vectors at this time. . There are three types of MEMS triaxial acceleration sensors: semiconductor piezoresistive triaxial acceleration sensors, capacitive triaxial acceleration sensors, and thermal detection (gas temperature distribution type) triaxial acceleration sensors. The measurement method is different. The semiconductor piezoresistive triaxial acceleration sensor measures the acceleration by detecting the distortion of the diaphragm generated when the acceleration acts on the weight. Capacitance type 3-axis acceleration sensor measures the change in capacitance for measuring acceleration, and heat detection type (gas temperature distribution type) 3-axis acceleration sensor measures the acceleration using the movement of gas heated by the heater To do.

3軸角速度センサとは、当業者には、よく知られているように、回転角速度の測定を直交3軸(X軸,Y軸,Z軸)で実現する慣性センサの一種であって、ジャイロセンサとも称される。角速度センサは加速度センサでは反応しない回転の動きを測定する。ジャイロセンサは、回転を検知する方式により分類することができる。現在、最も一般的に民生機器に搭載されているのは、ICタイプのMEMS(Micro Electro Mechanical System)技術を使った振動式ジャイロセンサである。MEMS技術を利用した慣性センサはその名前が示す通り、機械的な動きをする素子と、その信号を処理する電子回路を組み合わせた技術でセンサを構成し、動きを検知する。振動式ジャイロセンサの中には、シリコンを使う静電容量方式と、水晶や他の圧電材料を使うピエゾ方式の種類がある。振動式ジャイロセンサ以外の種別としては、地磁気式、光学式、機械式などがある。3軸は、一般に上下、左右、前後の3つの軸として定義され、上下軸は「ヨー軸」、左右軸は「ピッチ(ピッチング)軸」、前後軸は「ロール軸」と呼ばれることが多い。振動式のジャイロセンサは全てコリオリの力(転向力)を利用して回転を検知する。   As is well known to those skilled in the art, the triaxial angular velocity sensor is a kind of inertial sensor that realizes measurement of rotational angular velocity with three orthogonal axes (X axis, Y axis, Z axis). Also called a sensor. Angular velocity sensors measure rotational movements that are not responsive to acceleration sensors. The gyro sensor can be classified by a method for detecting rotation. At present, vibration gyro sensors using IC type micro electro mechanical system (MEMS) technology are most commonly installed in consumer devices. As the name suggests, an inertial sensor using MEMS technology constitutes a sensor with a technology that combines an element that makes mechanical movement and an electronic circuit that processes the signal, and detects the movement. Among vibration-type gyro sensors, there are a capacitive type using silicon and a piezo type using crystal and other piezoelectric materials. Types other than the vibration type gyro sensor include a geomagnetic type, an optical type, and a mechanical type. The three axes are generally defined as three axes of up / down, left / right, and front / rear, and the up / down axis is often called a “yaw axis”, the left / right axis is called a “pitch (pitching) axis”, and the front / rear axis is often called a “roll axis”. All vibratory gyro sensors detect rotation using Coriolis force (turning force).

<情報処理システムの具体的な一例について>
[システムの全体構成]
本発明に係る情報処理システムのより具体的な一例の使用状態を示す説明図が、図1に示されている。同図に示されるように、この情報処理システム1は、ユーザ40の手に把持される手持ち型のコントローラ10と、ユーザ40の頭部41に装着されるヘッドギア型の頭部装着具20と、そのディスプレイ画面51がユーザ40の眼前に対向するようにして頭部装着具20の内部に組み込まれるスマートフォン50(図3参照)とから構成されている。なお、図において、符号21は頭部装着具20をユーザの頭部に装着するための頭周ベルトである。
<About a specific example of an information processing system>
[System overall configuration]
FIG. 1 shows an explanatory diagram showing a use state of a more specific example of the information processing system according to the present invention. As shown in the figure, the information processing system 1 includes a hand-held controller 10 that is held by a user's 40 hand, a headgear-type head mounting tool 20 that is mounted on a head 41 of the user 40, It is comprised from the smart phone 50 (refer FIG. 3) integrated in the inside of the head mounting tool 20 so that the display screen 51 may oppose the user's 40 eyes. In the figure, reference numeral 21 denotes a head circumference belt for mounting the head mounting tool 20 on the user's head.

[頭部装着具の構成]
頭部装着具の外観を示す斜視図が図2に、頭部装着具へのスマートフォン組込手順の説明図が図3に、頭部装着具の使用状態を示す説明図が図4にそれぞれ示されている。それらの図に示されるように、頭部装着具20は、前面に開口24を有しかつ後面はユーザ40の目43にあてがわれる本体23を有する。本体23は、ユーザ40の頭部周囲にあてがわれる頭周ベルト21と頭頂部にあてがわれる頭頂ベルト22とを有する。前面開口24には、外側へ開くようにした蓋板25が開閉自在にヒンジ結合されている。蓋板25の内面側の4つの辺縁には、表示画面51を内側に向けた状態でスマートフォン50を保持するための適当な保持具26が設けられている。さらに、蓋板25の一辺縁には雌型留め具27aが、開口24の対応する一辺縁には雄型留め具27bがそれぞれ設けられ、それらの留め具27a,27bを介して、蓋板25は開口24を閉じた状態に保持可能とされている。
[Configuration of head-mounted device]
FIG. 2 is a perspective view showing the appearance of the head-mounted device, FIG. 3 is an explanatory diagram of a procedure for incorporating the smartphone into the head-mounted device, and FIG. 4 is an explanatory diagram showing the usage state of the head-mounted device. Has been. As shown in these figures, the head-mounted device 20 has an opening 24 on the front surface and a main body 23 that is applied to the eyes 43 of the user 40 on the rear surface. The main body 23 includes a head belt 21 applied to the periphery of the head of the user 40 and a head belt 22 applied to the top of the head. A lid plate 25 that opens outward is hinged to the front opening 24 so as to be openable and closable. Appropriate holding tools 26 for holding the smartphone 50 with the display screen 51 facing inward are provided on the four edges on the inner surface side of the cover plate 25. Further, a female fastener 27a is provided on one edge of the cover plate 25, and a male fastener 27b is provided on a corresponding one edge of the opening 24, and the cover plate 25 is provided via the fasteners 27a and 27b. Can hold the opening 24 in a closed state.

頭部装着具20へのスマートフォン50の組み込みにあたっては、先ず、頭部装着具20の前面蓋板25を開いた状態において、必要なアプリケーションプログラムがインストールされたスマートフォン50を用意する(図3(a)参照)。次いで、蓋板25の内面側に、スマートフォン50を4つの保持具26を介して保持させる(図3(b)参照)。しかるのち、蓋板25を閉じれば、頭部装着具20へのスマートフォン50の組込が完成する(図1参照)。   In assembling the smartphone 50 into the head-mounted device 20, first, the smartphone 50 in which a necessary application program is installed is prepared in a state where the front cover plate 25 of the head-mounted device 20 is opened (FIG. 3A )reference). Next, the smartphone 50 is held on the inner surface side of the lid plate 25 via the four holders 26 (see FIG. 3B). After that, if the cover plate 25 is closed, the smartphone 50 is assembled into the head-mounted device 20 (see FIG. 1).

ユーザ40が、スマートフォン50の組み込まれた頭部装着具20を頭部41に装着すると、図4に示されるように、ユーザ40の眼前には、仕切り板28に保持された光学系29を介して、スマートフォン50の表示画面51が対面する。そのため、スマートフォン50のディスプレイの表示画面51は、いわゆるヘッドマウントディスプレイ(HMD)として機能する。   When the user 40 wears the head-mounted device 20 in which the smartphone 50 is incorporated in the head 41, as shown in FIG. 4, in front of the user 40 through the optical system 29 held by the partition plate 28. Then, the display screen 51 of the smartphone 50 faces. Therefore, the display screen 51 of the display of the smartphone 50 functions as a so-called head mounted display (HMD).

[スマートフォンの構成]
スマートフォンは、よく知られているように、一方の面の中央部にディスプレイ、その上下に操作ボタン、スピーカ、インカメラを有し、他方の面にアウトカメラを有している。後に、図5を参照して詳細に説明するように、スマートフォンには、モーションセンサを構成する3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサがそれぞれ組み込まれている。そのため、それらのセンサによって、スマートフォン10の位置、姿勢、及び/又は、それらの動きも含めた変化を自在に検知可能とされている。
[Configuration of smartphone]
As is well known, a smartphone has a display at the center of one surface, an operation button, a speaker, and an in-camera above and below, and an out-camera on the other surface. As will be described in detail later with reference to FIG. 5, the smartphone incorporates a triaxial acceleration sensor, a triaxial angular velocity sensor, and a triaxial geomagnetic sensor that constitute a motion sensor. Therefore, it is possible to freely detect changes including the position, posture, and / or movement of the smartphone 10 by these sensors.

スマートフォンの電気的ハードウェア構成の一例を示すブロック図が、図5に示されている。同図に示されるように、スマートフォン50の電気回路は、制御部501、記憶部502、ディスプレイ503、入力操作部(タッチパネル)504、入力操作部(ボタン)505、3軸加速度センサ506、3軸角速度センサ507、3軸地磁気センサ508、GPSユニット509、照度センサ510、タイマ511、バッテリ512、振動部513、通信ユニット514、音声出力部515、音声入力部516、スピーカ部517、カメラユニット518、及びコネクタ519を含んで構成される。   A block diagram showing an example of the electrical hardware configuration of the smartphone is shown in FIG. As shown in the figure, the electric circuit of the smartphone 50 includes a control unit 501, a storage unit 502, a display 503, an input operation unit (touch panel) 504, an input operation unit (button) 505, a triaxial acceleration sensor 506, and a triaxial unit. Angular velocity sensor 507, triaxial geomagnetic sensor 508, GPS unit 509, illuminance sensor 510, timer 511, battery 512, vibration unit 513, communication unit 514, audio output unit 515, audio input unit 516, speaker unit 517, camera unit 518, And a connector 519.

制御部501は、スマートフォンの各種動作等を制御するプログラムを実行するCPU(SoC(System-on-chip)、MCU(Micro_Control_Unit)、又はFPGA(Field-Programable_Gate_Array)などを含む)を備える。   The control unit 501 includes a CPU (including a SoC (System-on-chip), MCU (Micro_Control_Unit), or FPGA (Field-Programable_Gate_Array)) that executes a program for controlling various operations of the smartphone.

記憶部502は、ROM,RAM、及び/又は、ストレージ等から構成され、スマートフォン50の一般的機能を実現するための各種のアプリケーションプログラムのほか、本発明に係るヘッドトラッキング表示処理や空間ポインティング処理を実現するための各種のアプリケーションプログラムやデータ(例えば、水平180度画像データ(図18参照)、水平360度画像データ、半天球画像データ(図19参照)、全天球画像データ(図8参照)、等々の各種のパノラマ画像データ)が保存される。   The storage unit 502 includes ROM, RAM, and / or storage, and performs various types of application programs for realizing the general functions of the smartphone 50, as well as head tracking display processing and spatial pointing processing according to the present invention. Various application programs and data (for example, horizontal 180 degree image data (see FIG. 18), horizontal 360 degree image data, hemisphere image data (see FIG. 19), and omnidirectional image data (see FIG. 8) , Etc., various panoramic image data) are stored.

ディスプレイ503は、液晶ディスプレイ、有機ELディスプレイ、又は無機ELディスプレイ等の表示デバイスを備えており、文字、図形又は記号等が表示される。このディスプレイ503は、本発明に関連して、ヘッドマウントディスプレイ(HMD)としても機能する。すなわち、このディスプレイ503の表示画面に、各種のアプリケーションプログラムを構成するパノラマ画像(例えば、水平180度パノラマ画像(図18参照)、水平360度パノラマ画像、半球状パノラマ画像(図19参照)、全球上パノラマ画像(図8参照)、等々)が所謂ヘッドトラッキング表示手法を利用して表示される。このパノラマ画像は、好ましくは、公知の手法により3D処理が施される。3D表示を行う手法の一例としては、例えば、ディスプレイ503の横長表示画面を左右に2分割し、それぞれに、視差を有する2つの画像を表示する手法が採用される。   The display 503 includes a display device such as a liquid crystal display, an organic EL display, or an inorganic EL display, and displays characters, figures, symbols, and the like. This display 503 also functions as a head mounted display (HMD) in connection with the present invention. That is, on the display screen of the display 503, panoramic images (for example, a horizontal 180 degree panoramic image (see FIG. 18), a horizontal 360 degree panoramic image, a hemispherical panoramic image (see FIG. 19), and a global The upper panoramic image (see FIG. 8), etc.) is displayed using a so-called head tracking display technique. This panoramic image is preferably subjected to 3D processing by a known method. As an example of a technique for performing 3D display, for example, a technique in which a horizontally long display screen of the display 503 is divided into left and right parts and two images each having a parallax are displayed is employed.

通信ユニット514は、外部機器とLAN又はインターネット等を介して無線通信を行うものである。無線通信規格としては例えば、2G、3G、4G、IEEE802.11、Bluetooth(登録商標)等の規格がある。特に、本発明と関連して、スマートフォン50は、コントローラ10との間でBluetooth(登録商標)を介して通信を行う。   The communication unit 514 performs wireless communication with an external device via a LAN or the Internet. Examples of wireless communication standards include 2G, 3G, 4G, IEEE 802.11, Bluetooth (registered trademark), and the like. In particular, in connection with the present invention, the smartphone 50 communicates with the controller 10 via Bluetooth (registered trademark).

スピーカ部517は、当該スマートフォンから音楽等を出力するものであり、このスピーカ部517は、本発明に関連して、ゲームサウンド等の各種のアプリケーション特有のサウンドを生成するためにも使用される。   The speaker unit 517 outputs music or the like from the smartphone, and the speaker unit 517 is also used to generate various application-specific sounds such as game sounds in connection with the present invention.

3軸加速度センサ506は、スマートフォン筐体に働く加速度の方向及び大きさを検出するものであり、3軸角速度センサ507はスマートフォン筐体の角度及び角速度を検出するものであり、3軸地磁気センサ508は、地磁気の向きを検出するものである。これら3つのセンサ506、507、508によって、本発明における第2のモーションセンサが構成されている。そして、それら3つのセンサ506,507,508の各出力に基づいて、ユーザ40の頭部41の姿勢や向きが検出される。なお、各センサ506、507、508の詳細については、先に説明した通りである。   The triaxial acceleration sensor 506 detects the direction and magnitude of acceleration acting on the smartphone casing, and the triaxial angular velocity sensor 507 detects the angle and angular velocity of the smartphone casing, and the triaxial geomagnetic sensor 508. Detects the direction of geomagnetism. These three sensors 506, 507, and 508 constitute a second motion sensor in the present invention. Based on the outputs of the three sensors 506, 507, and 508, the posture and orientation of the head 41 of the user 40 are detected. The details of the sensors 506, 507, and 508 are as described above.

カメラユニット518は、例えば、スマートフォン50の筐体の表面又は裏面に設けられるインカメラ又はアウトカメラ等と接続され、静止画像又は動画像を撮像する際に用いられるものである。カメラユニット518は、後述するように、本発明と関連して、ディスプレイ503の背面側に設けられたアウトカメラを用いて現実世界の画像を撮像したり、或いは、ディスプレイ503と同一の面に設けられたインカメラにより視線画像を取得することにも利用可能である。   The camera unit 518 is connected to, for example, an in camera or an out camera provided on the front surface or the back surface of the housing of the smartphone 50, and is used when capturing a still image or a moving image. As will be described later, the camera unit 518 captures an image of the real world using an out camera provided on the back side of the display 503 or is provided on the same surface as the display 503 in connection with the present invention. It can also be used to acquire a line-of-sight image by using the in camera.

音声入力部(マイク等)516は、スマートフォン50を用いて通話等を行う際に音声の入力を行うものである。本発明と関連して、後述するように、音声入力部516を介して入力された音声を解析して、スマートフォンやアプリケーションプログラムの種々の操作を行ってもよい。   The voice input unit (such as a microphone) 516 is for inputting voice when making a call or the like using the smartphone 50. As will be described later in connection with the present invention, the voice input via the voice input unit 516 may be analyzed to perform various operations on the smartphone or application program.

その他、振動部513は、各種アプリケーションプログラム等で用いられる振動部であり、例えば、電磁コイルを利用した振動機構その他各種の振動モータ等で構成することができる。コネクタ519は、他の機器との接続に用いられる端子である。当該端子は、USB、HDMI(登録商標)等の汎用的な端子であってもよい。音声出力部515は、当該スマートフォンを用いて通話等を行う際に音声出力を行うものである。入力操作部504は例えばタッチ方式の入力操作部であり、指、ペン又はスタイラスペン等の接触検知により、各種の入力を行うものである。GPS(Gloval Positioning System)ユニット509は、スマートフォンの位置を検出する。照度センサ510は、照度を検出する。なお、照度とは、光の強さ、明るさ、又は輝度を示す。タイマ511は時間の計測を行うものである。なお、当該タイマはCPU等と一体に設けられていても良い。バッテリ512は、充電により、スマートフォンの電源として機能する。   In addition, the vibration part 513 is a vibration part used by various application programs etc., for example, can be comprised with the vibration mechanism using an electromagnetic coil, various other vibration motors, etc. The connector 519 is a terminal used for connection with other devices. The terminal may be a general-purpose terminal such as USB or HDMI (registered trademark). The audio output unit 515 outputs audio when making a call or the like using the smartphone. The input operation unit 504 is, for example, a touch-type input operation unit, and performs various inputs by detecting contact with a finger, pen, stylus pen, or the like. A GPS (Gloval Positioning System) unit 509 detects the position of the smartphone. The illuminance sensor 510 detects illuminance. The illuminance indicates light intensity, brightness, or luminance. The timer 511 measures time. Note that the timer may be provided integrally with the CPU or the like. The battery 512 functions as a power source for the smartphone by charging.

[コントローラの構成]
コントローラ10の外観を示す斜視図が図6に示されている。同図に示されるように、コントローラ10は、ボタン配置のためのほぼ水平な上面を有する本体後部11とボタン配置のためのほぼ垂直な前面を有する本体前部12とからなる側面視略L字状の外観形態を有する。本体後部11は、コントローラを把持する際の握り部としても機能するものである。
[Controller configuration]
A perspective view showing the external appearance of the controller 10 is shown in FIG. As shown in the figure, the controller 10 has a substantially L-shape in a side view including a main body rear portion 11 having a substantially horizontal upper surface for button arrangement and a main body front portion 12 having a substantially vertical front surface for button arrangement. It has an external appearance form. The main body rear portion 11 also functions as a grip portion for gripping the controller.

本体後部部11の上面には、それぞれモメンタリタイプの押しボタンスイッチの操作子として機能する3個の押しボタン(中心ボタン13、左側ボタン14、右側ボタン15)が配置されている。本体前部12の前面には、それぞれモメンタリタイプの押しボタンスイッチの操作子として機能する2個の押しボタン(上側ボタン16、下側ボタン17)が配置されている。なお、符号18は、本体後部部11の左側面に設けられた電源スイッチとして機能するスライド操作子である。   Three push buttons (center button 13, left button 14, and right button 15) each functioning as an operator of a momentary type push button switch are disposed on the upper surface of the main body rear portion 11. Two push buttons (an upper button 16 and a lower button 17) each functioning as an operator of a momentary type push button switch are arranged on the front surface of the main body front portion 12. Reference numeral 18 denotes a slide operator that functions as a power switch provided on the left side surface of the main body rear portion 11.

後に、図7を参照して説明するように、コントローラ10には、本発明に係る第1のモーションセンサを構成する3軸加速度センサ1003、3軸角速度センサ1004、及び3軸地磁気センサ1005がそれぞれ組み込まれている。そのため、それらのセンサによって、コントローラ10の位置、姿勢、向き、及び/又は、それらの動きも含めた変化を自在に検知可能とされている。これらのセンサ1003〜1005は、コントローラ本体10に対して一定の物理的関係となるようにして、組み込まれている。   As will be described later with reference to FIG. 7, the controller 10 includes a three-axis acceleration sensor 1003, a three-axis angular velocity sensor 1004, and a three-axis geomagnetic sensor 1005 that constitute the first motion sensor according to the present invention. It has been incorporated. Therefore, it is possible to freely detect changes including the position, posture, orientation, and / or movement of the controller 10 by these sensors. These sensors 1003 to 1005 are incorporated so as to have a certain physical relationship with the controller main body 10.

コントローラ10の電気的ハードウェア構成を示すブロック図が、図7に示されている。同図に示されるように、コントローラ内部の電気回路は、マイクロプロセッサやASIC等で構成されて、コントローラ全体を統括制御する制御部1001と、Bluetooth(登録商標)等の短距離通信を実現するための通信ユニット1002と、第1のモーションセンサを構成する3つのセンサ(3軸加速度センサ1003、3軸角速度センサ1004、及び3軸磁気センサ1005)と、記憶部1007とを含んで構成されている。なお、図において、符号1006は、コントローラの電源となる充電可能なバッテリである。   A block diagram showing the electrical hardware configuration of the controller 10 is shown in FIG. As shown in the figure, an electric circuit inside the controller is configured by a microprocessor, an ASIC, and the like, and realizes a short-range communication such as Bluetooth (registered trademark) and the like with a control unit 1001 that performs overall control of the entire controller. Communication unit 1002, three sensors (three-axis acceleration sensor 1003, three-axis angular velocity sensor 1004, and three-axis magnetic sensor 1005) constituting the first motion sensor, and a storage unit 1007. . In the figure, reference numeral 1006 denotes a rechargeable battery serving as a power source for the controller.

上述した3個のボタン(中心ボタン13、左側ボタン14、右側ボタン15)及び2個のボタン(上側ボタン16、下側ボタン17)は、それらの操作に連動してオンオフする接点13a〜17aを有する。それらの接点のオンオフにより生成されるオンオフ信号は、各種の指令として制御部1001に読み込まれて各種の演算に供されるほか、必要により、通信ユニット1002を介して、頭部装着具20に組み込まれたスマートフォン50へと短距離通信を介して送出され、スマートフォン側の各種の演算に供される。また、第1のモーションセンサを構成する3つのセンサ(3軸加速度センサ1003、3軸角速度センサ1004、及び3軸磁気センサ1005)の各出力についても、そのまま直接に、あるいは適宜な加工が施されたのち、通信ユニット1002を介して、スマートフォン50側へと送信可能とされている。   The above-described three buttons (center button 13, left button 14, right button 15) and two buttons (upper button 16, lower button 17) have contacts 13a to 17a that are turned on and off in conjunction with these operations. Have. On / off signals generated by turning on and off the contacts are read as various commands into the control unit 1001 and used for various calculations, and if necessary, incorporated into the head-mounted device 20 via the communication unit 1002. Sent to the smartphone 50 via short-range communication, and used for various calculations on the smartphone side. In addition, the outputs of the three sensors (three-axis acceleration sensor 1003, three-axis angular velocity sensor 1004, and three-axis magnetic sensor 1005) constituting the first motion sensor are also directly processed or appropriately processed. After that, transmission to the smartphone 50 side via the communication unit 1002 is possible.

[ヘッドトラッキング表示処理及び空間ポインティング処理について]
先に説明したように、本発明システムにあっては、少なくとも3軸地磁気センサ1005を含む第1のモーションセンサが組み込まれたコントローラ10と、少なくとも3軸地磁気センサ508を含む第2のモーションセンサ及びディスプレイ503が組み込まれた頭部装着具20と、第1及び第2のモーションセンサのそれぞれから得られるコントローラ10及び頭部装着具20の姿勢情報をローカル座標からワールド座標へと変換すると共に、ワールド座標上の各姿勢情報に基づいて、仮想空間におけるヘッドトラッキング表示処理及び空間ポインティング処理を実行する情報処理部とを備えている。以下に、この点について、図9の座標系概念図及び図12〜図15のフローチャートを参照しつつ概略的に説明する。
[About head tracking display processing and spatial pointing processing]
As described above, in the system of the present invention, the controller 10 incorporating the first motion sensor including at least the triaxial geomagnetic sensor 1005, the second motion sensor including at least the triaxial geomagnetic sensor 508, and The head mounting device 20 incorporating the display 503, the controller 10 obtained from each of the first and second motion sensors, and the posture information of the head mounting device 20 are converted from local coordinates to world coordinates, and the world And an information processing unit that executes a head tracking display process and a space pointing process in the virtual space based on each posture information on the coordinates. This point will be schematically described below with reference to the coordinate system conceptual diagram of FIG. 9 and the flowcharts of FIGS.

今仮に、1つのワールド座標空間(X,Y,Z)上に、スマートフォン(HMD)50とコントローラ(CTRL)10とが存在し、それらのデバイスにはそれぞれモーションセンサが内蔵されているものと想定する。ここで、モーションセンサは、いずれも、3軸加速度センサと3軸角速度センサと3軸地磁気センサとで構成されている。いずれのデバイスも、基本的な姿勢は、3軸加速度センサと3軸地磁気センサとを用いて計算により求めることができる(図13のステップ201、204参照)。   Assume that a smartphone (HMD) 50 and a controller (CTRL) 10 exist on one world coordinate space (X, Y, Z), and that each device has a built-in motion sensor. To do. Here, each of the motion sensors includes a triaxial acceleration sensor, a triaxial angular velocity sensor, and a triaxial geomagnetic sensor. In any device, the basic posture can be obtained by calculation using a triaxial acceleration sensor and a triaxial geomagnetic sensor (see steps 201 and 204 in FIG. 13).

まず、各デバイスに組み込まれた3軸加速度センサと3軸角速度センサとを用いて、スマートフォン(HMD)50の姿勢とコントローラ(CTRL)10の姿勢とを計算し、それらを各デバイスの基本姿勢とする(図13のステップ201及び204、それらの詳細内容である図14のステップ301〜303及び304〜306参照)。
このとき、3軸加速度センサの値から求めた基本姿勢は、プログラム言語によれば、次のように記述される。なお、3軸加速度センサの値はローパスフィルタ及び/又はハイパスフィルタを通して、静止成分と動作成分に分割されており、ここで取得しているのは静止成分のことである。

sensor_pose = Quaternion(-_mAccel.Pose.z, _mAccel.Pose.y, -_mAccel.Pose.x,
_mAccel.Pose.w);
First, the attitude of the smartphone (HMD) 50 and the attitude of the controller (CTRL) 10 are calculated using the triaxial acceleration sensor and the triaxial angular velocity sensor incorporated in each device, and these are calculated as the basic attitude of each device. (Refer to Steps 201 and 204 in FIG. 13 and their detailed contents, Steps 301 to 303 and 304 to 306 in FIG. 14).
At this time, the basic posture obtained from the value of the triaxial acceleration sensor is described as follows according to the program language. The value of the three-axis acceleration sensor is divided into a stationary component and a motion component through a low-pass filter and / or a high-pass filter, and what is acquired here is the stationary component.

sensor_pose = Quaternion (-_ mAccel.Pose.z, _mAccel.Pose.y, -_mAccel.Pose.x,
_mAccel.Pose.w);

次に、上述の基本姿勢を3軸角速度センサの検知結果を用いて補正することにより、各デバイスを動かしたときの姿勢を求める(図13のステップ202、205、及びそれらの詳細内容である図14のステップ401〜402、403〜404参照)。なお、3軸角速度センサは使用せずとも、3軸加速度センサと3軸地磁気センサとがあれば、姿勢制御は可能である。

このとき、前回の姿勢に対して3軸角速度センサによる変化値補正は、次の通りとなる。

Quaternion rotation = this.transform.rotation;
Quaternion qx = Quaternion.AngleAxis(-gyro.RotZ, Vector3.right);
Quaternion qy = Quaternion.AngleAxis(-gyro.RotY, Vector3.up);
Quaternion qz = Quaternion.AngleAxis(gyro.RotX, -Vector3.forward);
q = (qz * qy * qx);
rotation = rotation * q;
Quaternion sensor_pose = clSingleton<clBLESensorManager>.Instance.SenserPose;
this.transform.rotation = Quaternion.Slerp(rotation, sensor_pose, 0.04f);
Next, by correcting the basic attitude described above using the detection result of the triaxial angular velocity sensor, the attitude when each device is moved is obtained (steps 202 and 205 in FIG. 13 and their detailed contents). 14 steps 401-402, 403-404). Even if a triaxial angular velocity sensor is not used, posture control is possible if a triaxial acceleration sensor and a triaxial geomagnetic sensor are provided.

At this time, the change value correction by the triaxial angular velocity sensor with respect to the previous posture is as follows.

Quaternion rotation = this.transform.rotation;
Quaternion qx = Quaternion.AngleAxis (-gyro.RotZ, Vector3.right);
Quaternion qy = Quaternion.AngleAxis (-gyro.RotY, Vector3.up);
Quaternion qz = Quaternion.AngleAxis (gyro.RotX, -Vector3.forward);
q = (qz * qy * qx);
rotation = rotation * q;
Quaternion sensor_pose = clSingleton <clBLESensorManager>.Instance.SenserPose;
this.transform.rotation = Quaternion.Slerp (rotation, sensor_pose, 0.04f);

次に、基本姿勢をワールド座標へ変換するための一連の処理を行う(図13のステップ203、206、及びそれらの詳細内容である図15のステップ501〜506、507〜512参照)。上述の一連の処理とは、要するに、3軸加速度センサと3軸地磁気センサとを用いて、各デバイスの磁北方向を3軸地磁気センサから計算することを主眼とするものである。このとき、コントローラ10の磁北計算は、3軸地磁気センサの成分に傾き情報が含まれているので、加速度から求めた端末の傾きを地磁気センサ情報に補正して、水平な地磁気成分を抽出する。

3軸加速度センサの重力ベクトルは、次の通りである(図15のステップ501、507参照。

Vector3 b = Vector3(_mAccel.Gravity.x, _mAccel.Gravity.y, _mAccel.Gravity.z);
b = b.normalized;

垂直下方向のベクトルは次の通りである(図15のステップ502、508参照)。

Vector3 a = Vector3(0f, 1f, 0f);
a = a.normalized;
float value = a.x * b.x + a.y * b.y + a.z * b.z;
float gravity_angle = Mathf.Acos (value / a.magnitude * b.magnitude);
Vector3 axis = Vector3.Cross (a, b);
axis = axis.normalized;
Quaternion aq = Quaternion.AngleAxis (-gravity_angle * Mathf.Rad2Deg, axis);

次のようにして、地磁気の軸(mGeom.Z, _mGeom.X, _mGeom.Y)を(0, 1, 0)が上になるように回転する(図15のステップ503、509参照)。

Vector3 geom_v = new Vector3(-_mGeom.Z, _mGeom.Y, -_mGeom.X);
geom_v = geom_v.normalized;

次のようにして、加速度の傾きを地磁気の軸と合わせる(図15のステップ504、510参照)。

Quaternion gq = Quaternion(-aq.z, -aq.x, aq.y, aq.w);

次のようにして、地磁気のx, y, zを更に分解して水平方向の磁北を計算する(図15のステップ505、511参照)。

float m = Mathf.Sqrt(Mathf.Pow(geom.x, 2) + Mathf.Pow(geom.y, 2) +
Mathf.Pow(geom.z, 2));
geom_height = Mathf.Asin(geom.z/m);

地磁気の水平成分から求めた磁北は、次の通りとなる。

geom_height_head = Mathf.Acos(geom.x/(m * Mathf.Cos(geom_height)));

次のようにして、方向と基準姿勢から回転計算することにより、各デバイスの磁北方向と各デバイスの基本姿勢を合成する(図15のステップ506、512参照)。この時点で、ワールド空間上の、各オブジェクトの姿勢と向いている方向が分かる。

sensorRotation = q_head * pose;
Next, a series of processing for converting the basic posture into world coordinates is performed (see steps 203 and 206 in FIG. 13 and steps 501 to 506 and 507 to 512 in FIG. 15 which are detailed contents thereof). In short, the series of processes described above mainly uses a triaxial acceleration sensor and a triaxial geomagnetic sensor to calculate the magnetic north direction of each device from the triaxial geomagnetic sensor. At this time, since the magnetic north calculation of the controller 10 includes the tilt information in the component of the triaxial geomagnetic sensor, the tilt of the terminal obtained from the acceleration is corrected to the geomagnetic sensor information, and the horizontal geomagnetic component is extracted.

The gravity vector of the three-axis acceleration sensor is as follows (see steps 501 and 507 in FIG. 15).

Vector3 b = Vector3 (_mAccel.Gravity.x, _mAccel.Gravity.y, _mAccel.Gravity.z);
b = b.normalized;

The vertically downward vectors are as follows (see steps 502 and 508 in FIG. 15).

Vector3 a = Vector3 (0f, 1f, 0f);
a = a.normalized;
float value = ax * bx + ay * by + az * bz;
float gravity_angle = Mathf.Acos (value / a.magnitude * b.magnitude);
Vector3 axis = Vector3.Cross (a, b);
axis = axis.normalized;
Quaternion aq = Quaternion.AngleAxis (-gravity_angle * Mathf.Rad2Deg, axis);

In the following manner, the geomagnetic axes (mGeom.Z, _mGeom.X, _mGeom.Y) are rotated so that (0, 1, 0) is on the top (see steps 503 and 509 in FIG. 15).

Vector3 geom_v = new Vector3 (-_ mGeom.Z, _mGeom.Y, -_mGeom.X);
geom_v = geom_v.normalized;

The acceleration gradient is aligned with the geomagnetic axis as follows (see steps 504 and 510 in FIG. 15).

Quaternion gq = Quaternion (-aq.z, -aq.x, aq.y, aq.w);

The horizontal magnetic north is calculated by further decomposing geomagnetic x, y, z as follows (see steps 505 and 511 in FIG. 15).

float m = Mathf.Sqrt (Mathf.Pow (geom.x, 2) + Mathf.Pow (geom.y, 2) +
Mathf.Pow (geom.z, 2));
geom_height = Mathf.Asin (geom.z / m);

The magnetic north calculated from the horizontal component of geomagnetism is as follows.

geom_height_head = Mathf.Acos (geom.x / (m * Mathf.Cos (geom_height)));

The magnetic north direction of each device and the basic posture of each device are synthesized by performing rotation calculation from the direction and the reference posture as follows (see steps 506 and 512 in FIG. 15). At this point, the orientation of each object in the world space and the direction it faces are known.

sensorRotation = q_head * pose;

続いて、図13に戻って、ワールド座標上に、図9の概念図に示されるように、スマートフォン(HMD)50とコントローラ(CTRL)10の情報を配置する(図13のステップ207参照)。   Subsequently, returning to FIG. 13, information of the smartphone (HMD) 50 and the controller (CTRL) 10 is arranged on the world coordinates as shown in the conceptual diagram of FIG. 9 (see step 207 of FIG. 13).

続いて、ワールド座標上に、スマートフォン(HMD)と同じ位置・傾き姿勢で、カメラのビューポイントを配置する(図13のステップ208参照)。ここで、カメラとは、仮想空間(例えば、図8に示される全球状パノラマ仮想空間)内の所定位置(例えば、中心位置)にあって、仮想空間を撮影する仮想的なカメラであって、その視野に映し出される画像が別途処理にて仮想空間から切り出されて、スマートフォンのディスプレイ(HMD)に表示されることにより、いわゆる仮想空間におけるヘッドトラッキング表示(背景表示)が可能となる。   Subsequently, the viewpoint of the camera is placed on the world coordinates at the same position / tilt posture as the smartphone (HMD) (see step 208 in FIG. 13). Here, the camera is a virtual camera that captures a virtual space at a predetermined position (for example, the center position) in the virtual space (for example, the spherical panoramic virtual space shown in FIG. 8), An image displayed in the field of view is cut out from the virtual space by a separate process and displayed on the display (HMD) of the smartphone, thereby enabling head tracking display (background display) in the so-called virtual space.

続いて、コントローラ10の姿勢情報から現在の姿勢の前方向に一定距離のワールド座標を計算する(図13のステップ209参照)。   Subsequently, world coordinates of a fixed distance in the forward direction of the current posture are calculated from the posture information of the controller 10 (see step 209 in FIG. 13).

スマートフォン10のディスプレイ画面51に相当するカメラの視野上に上記で計算した終点が存在するとき(図13のステップ210YES)、ワールド座標をカメラのビューポート座標(範囲:0.0〜1.0)に変換する。この2D座標系の座標を、スマートフォン50のディスプレイの画面51上におけるコントローラの照準の2D座標として利用し、必要に応じて、照準マーク53を画面51上に表示することができる(図13のステップ211)。ビューポート座標(範囲:0.0〜1.0)の範囲外の場合は(図13のステップ210NO)、照準位置はスマートフォンのディスプレイの画面外とし、照準マーク53を画面上に表示することはない。以上により、いわゆる仮想空間上における空間ポインティングが可能となる。

Vector3 ray_s_pos = gameObject.transform.position;
gunRay.SetPosition (0, ray_s_pos);
Vector3 ray_e_pos = gameObject.transform.forward * kRayLength;

なお、終点位置を現在のカメラのビューポート座標(0.0〜1.0)に変換する処理は、次の通りである。

Vector2 v2 = ViewPortPos (ray_e_pos);

また、ビューポート座標を中心0の座標系に変換して補正する処理は、次の通りである。

Vector3 target_pos = _basePos + new Vector3((v2.x-0.5f), (v2.y-0.5f), 0.0f);

さらに、現在位置から計算された次の位置に向けて照準を移動する処理は、次の通りである。

this.transform.position = Vector3.MoveTowards(this.transform.position, target_pos, 0.5f);
When the end point calculated above is present on the field of view of the camera corresponding to the display screen 51 of the smartphone 10 (step 210 YES in FIG. 13), the world coordinates are converted into camera viewport coordinates (range: 0.0 to 1.0). The coordinates of the 2D coordinate system can be used as the 2D coordinates of the aim of the controller on the screen 51 of the display of the smartphone 50, and the aim mark 53 can be displayed on the screen 51 as necessary (step of FIG. 13). 211). If it is outside the range of the viewport coordinates (range: 0.0 to 1.0) (step 210 NO in FIG. 13), the aiming position is outside the screen of the smartphone display, and the aiming mark 53 is not displayed on the screen. As described above, space pointing in a so-called virtual space is possible.

Vector3 ray_s_pos = gameObject.transform.position;
gunRay.SetPosition (0, ray_s_pos);
Vector3 ray_e_pos = gameObject.transform.forward * kRayLength;

The process of converting the end point position into viewport coordinates (0.0 to 1.0) of the current camera is as follows.

Vector2 v2 = ViewPortPos (ray_e_pos);

Further, the processing for converting the viewport coordinates to the coordinate system of the center 0 and correcting is as follows.
.
Vector3 target_pos = _basePos + new Vector3 ((v2.x-0.5f), (v2.y-0.5f), 0.0f);

Furthermore, the process of moving the aim toward the next position calculated from the current position is as follows.

this.transform.position = Vector3.MoveTowards (this.transform.position, target_pos, 0.5f);

なお、図13〜図16に示された処理は、仮想空間におけるヘッドトラッキング表示処理及び仮想空間における空間ポインティング処理に主眼が置かれているため、アプリケーションプログラム固有の動作(照準と標的との照合一致後のイベント内容等々)については省略されていることを注記する。   Note that the processing shown in FIGS. 13 to 16 is focused on the head tracking display processing in the virtual space and the spatial pointing processing in the virtual space, and therefore the operation unique to the application program (matching matching between the aim and the target). Note that subsequent event details etc. are omitted.

[照準方向校正処理について]
次に、本発明の要部であるところの照準方向校正処理について説明する。上述の情報処理システムによれば、第1のモーションセンサを介して検知されるコントローラ10の姿勢は、ローカル座標値からワールド座標値へと変換されたのち、その指し示す方向の判別に利用されるため、所定の更新処理(図13のステップ205、及びそれらの詳細内容である図14のステップ403〜404参照)により、その時々の姿勢変化分が現在姿勢に正しく反映されている限り、コントローラの姿勢により指し示したつもりの照準方向とモーションセンサを介して指し示される(推定される)照準方向との間には、原理的に、大きな感覚的な誤差は生じない筈である。
[Aiming direction calibration process]
Next, the aiming direction calibration process which is the main part of the present invention will be described. According to the information processing system described above, the posture of the controller 10 detected via the first motion sensor is used for determination of the pointing direction after being converted from a local coordinate value to a world coordinate value. As long as the change in posture at that time is correctly reflected in the current posture by a predetermined update process (see step 205 in FIG. 13 and steps 403 to 404 in FIG. 14 which are their detailed contents), the posture of the controller In principle, no large sensory error should occur between the aiming direction intended to be pointed by and the aiming direction pointed (estimated) via the motion sensor.

しかしながら、コントローラ10に組み込まれる第1のモーションセンサを構成する3軸地磁気センサ(図7の符号1005参照)には、製品毎に磁北検知特性のバラツキが少なからず存在するほか、周囲の温度等の環境条件によっても磁北検知特性は少なからず変動することから、この種の情報処理システムにあっても、上述した3軸地磁気センサの磁北検知特性のバラツキや変動に起因して、コントローラで指し示したつもりの照準方向とモーションセンサを介して検知される照準方向との間に少なからず感覚的な誤差を生ずることが認められ、これにより、所謂照準の狂いが生じて操作者は違和感を覚える。   However, the triaxial geomagnetic sensor (see reference numeral 1005 in FIG. 7) constituting the first motion sensor incorporated in the controller 10 has a considerable variation in magnetic north detection characteristics for each product, and the ambient temperature, etc. The magnetic north detection characteristics fluctuate depending on the environmental conditions. Therefore, even in this type of information processing system, we intended to point to the controller due to the variation and fluctuations in the magnetic north detection characteristics of the three-axis geomagnetic sensor described above. It is recognized that there is a considerable sensory error between the aiming direction detected by the motion sensor and the aiming direction detected by the motion sensor, so that a so-called aiming error occurs and the operator feels uncomfortable.

そこで、本発明者等は、上述の製品毎の磁北検知特性のバラツキについては、アプリケーションプロクラムの実行開始時に所定の校正処理を実行可能とすることにより、また周囲温度等の環境条件による磁北検知特性の経時的な変化については、アプリケーションプログラムの実行中の任意の時点で所定の校正処理を実行可能とすることにより、これらの問題を解決している。   Therefore, the present inventors have made it possible to execute a predetermined calibration process at the start of execution of the application program and to detect the magnetic north detection characteristics depending on environmental conditions such as the ambient temperature. These problems are solved by making it possible to execute a predetermined calibration process at an arbitrary time during the execution of the application program.

[アプリケーションプロクラム実行開始時の校正処理]
アプリケーションプロクラム実行のための準備作業を示すフローチャートが、図12に示されている。同図に示されるように、コントローラ10とスマートフォン50と頭部装着具20との三者で構成される情報処理システムにおいて、任意のアプリケーションプログラム(ヘッドトラッキング表示処理及び空間ポインティング処理を含む)を実行するためには、ユーザは、次のような準備作業を行う。
[Calibration process at the start of application program execution]
FIG. 12 is a flowchart showing preparation work for executing the application program. As shown in the figure, an arbitrary application program (including a head tracking display process and a spatial pointing process) is executed in an information processing system composed of a controller 10, a smartphone 50, and a head-mounted device 20. In order to do this, the user performs the following preparatory work.

すなわち、ユーザは、先ず、スマートフォン50とコントローラ10との間の通信設定(例えば、Bluetooth(登録商標)通信の設定)を行う(ステップ101)。続いて、ユーザは、スマートフォン50上で、予めインストールされたアプリケーションプログラムの選択操作を行って、当該プログラムを起動させる(ステップ202)。続いて、ユーザは、図3に示される組込手順にしたがって、当該スマートフォン50を頭部装着具20に組み込む(ステップ103)。最後に、ユーザは、スマートフォン50が組み込まれた頭部装着具20を頭部に装着する。   That is, the user first performs communication settings (for example, Bluetooth (registered trademark) communication settings) between the smartphone 50 and the controller 10 (step 101). Subsequently, the user performs an operation of selecting an application program installed in advance on the smartphone 50 to start the program (step 202). Subsequently, the user incorporates the smartphone 50 into the head-mounted device 20 according to the incorporation procedure shown in FIG. 3 (step 103). Finally, the user wears the head wearing tool 20 in which the smartphone 50 is incorporated on the head.

以上の準備作業が終了すると、図13〜図15に示される一連の処理が実行状態となり、第1のモーションセンサを介して推定されるコントローラ10の指し示す方向の基準点と第2のモーションセンサを介して推定される頭部装着具20の指し示す方向の基準点とが整合するように両者の関係を校正する校正処理が実行される。この校正処理は、この例にあっては、開始時校正処理(ステップ212)として実行される。   When the above preparatory work is completed, a series of processes shown in FIGS. 13 to 15 are executed, and the reference point in the direction indicated by the controller 10 estimated via the first motion sensor and the second motion sensor are set. A calibration process for calibrating the relationship between the head wear tool 20 and the reference point in the direction indicated by the head wear tool 20 is executed. In this example, this calibration process is executed as a start time calibration process (step 212).

開始時校正処理(ステップ212)の詳細フローチャートが、図16に示されている。同図において、処理が開始されると、先ず、校正済みフラグの状態がONであるか否かの判定が行われる(ステップ601)。この校正済みフラグは、図示しないイニシャライズ処理にて、予めOFFに設定されている。そのため、判定結果は否定され(ステップ601NO)、続いて、ユーザに校正のための操作方法を案内するための操作案内処理(ステップ602)が実行される。この操作案内処理(ステップ602)は、ユーザが所定のトリガー操作を実行するまで(ステップ603NO)、継続的に実行される。   A detailed flowchart of the start time calibration process (step 212) is shown in FIG. In the figure, when the process is started, first, it is determined whether or not the state of the calibrated flag is ON (step 601). This calibrated flag is set to OFF in advance by an initialization process (not shown). Therefore, the determination result is negative (NO in step 601), and subsequently, an operation guidance process (step 602) for guiding the user to the operation method for calibration is executed. This operation guidance process (step 602) is continuously executed until the user executes a predetermined trigger operation (NO in step 603).

操作案内は、スマートフォン50のディスプレイ画面51上に所定の案内表示(文字、記号、図形、文章、等々)を行ったり、スマートフォン50のスピーカ部517から所定の案内音声を流したり、さらには、案内表示と案内音声との双方を実行する等々、様々な方法にて実現することができる。   For operation guidance, a predetermined guidance display (characters, symbols, figures, sentences, etc.) is performed on the display screen 51 of the smartphone 50, a predetermined guidance voice is played from the speaker unit 517 of the smartphone 50, and further guidance is provided. It can be realized by various methods such as executing both display and guidance voice.

案内表示の内容としては、例えば、コントローラ10の姿勢を介して指し示されるべき仮想空間上の標的方向(例えば、画面中心に向かう方向)を示す標的マーク、コントローラ10のワールド座標上の姿勢情報に基づいて指し示される仮想空間上の照準方向を示す照準マーク、「コントローラを画面中心に向けた状態でトリガーボタンを押してください」と言った操作案内文、等々を挙げることができる。案内音声についても同様であって、「コントローラを画面中心に向けた状態でトリガーボタンを押してください」と言った操作案内音声等々を挙げることができる。   The contents of the guidance display include, for example, a target mark indicating a target direction (for example, a direction toward the center of the screen) in the virtual space to be pointed through the posture of the controller 10, and posture information on the world coordinates of the controller 10. An aiming mark indicating the aiming direction in the virtual space pointed to based thereon, an operation guidance sentence such as “Please press the trigger button with the controller facing the center of the screen”, and the like can be cited. The same applies to the guidance voice, and examples include an operation guidance voice such as “please press the trigger button with the controller facing the center of the screen”.

アプリケーションプログラム開始時の初期画面(すなわち、案内表示の一例)の説明図が、図10に示されている。この例にあっては、表示画面51上には、コントローラ10にて指し示されるべき標的方向を示す標的マーク52と、コントローラ10に組み込まれるモーションセンサ(3軸加速度センサ1003、3軸角速度センサ1004、3軸地磁気センサ1005)を介して検知されるコントローラ10の姿勢に基づいて決定されるコントローラ10の照準方向を示す照準マーク53とが表示されている。   FIG. 10 shows an explanatory diagram of an initial screen at the start of the application program (that is, an example of guidance display). In this example, on the display screen 51, a target mark 52 indicating a target direction to be pointed by the controller 10, and a motion sensor (three-axis acceleration sensor 1003, three-axis angular velocity sensor 1004) incorporated in the controller 10. An aiming mark 53 indicating the aiming direction of the controller 10 determined based on the attitude of the controller 10 detected via the triaxial geomagnetic sensor 1005) is displayed.

この例にあっては、標的方向としては画面中心に向かう方向が選ばれており、そのため、標的マーク52は、表示画面51の上下左右の中心位置に表示されている。また、照準マーク53は、コントローラ10の姿勢乃至向きに応じて移動するものであって、図示例における照準マーク53は、コントローラ10が画面中心位置に照準を合わせたときの状態を示している。図から明らかなように、コントローラ10が画面中心位置にある標的マーク52に照準を合わせているとき、照準マーク53は画面中心位置よりもやや右上にずれた位置に表示されている。これは、コントローラが指し示したつもりの照準方向とコントローラ内のモーションセンサ(3軸地磁気センサを含む)を介して指し示される照準方向との間に誤差が存在することを意味している。この誤差は、コントローラ内10の3軸地磁気センサ1005やスマートフォン50内の3軸地磁気センサ508の製品毎の磁北検知特性のバラツキ等に起因するものと考えられる。   In this example, the direction toward the center of the screen is selected as the target direction, and therefore the target mark 52 is displayed at the center position of the display screen 51 in the vertical and horizontal directions. The aiming mark 53 moves according to the attitude or orientation of the controller 10, and the aiming mark 53 in the illustrated example indicates a state when the controller 10 is aimed at the screen center position. As is clear from the figure, when the controller 10 is aiming at the target mark 52 at the center position of the screen, the aim mark 53 is displayed at a position slightly shifted to the upper right from the center position of the screen. This means that there is an error between the aiming direction that the controller intends to point to and the aiming direction pointed to through the motion sensors (including triaxial geomagnetic sensors) in the controller. This error is considered to be caused by variations in magnetic north detection characteristics among products of the triaxial geomagnetic sensor 1005 in the controller 10 and the triaxial geomagnetic sensor 508 in the smartphone 50.

このような状態において、ユーザは、図11に示されるように、頭部装着具20を正面に向けかつコントローラ10を画面51の中心(すなわち、標的マーク52の位置)に向けた状態において、所定のトリガー操作を行う。   In such a state, as shown in FIG. 11, the user is predetermined in a state where the head-mounted device 20 is directed to the front and the controller 10 is directed to the center of the screen 51 (that is, the position of the target mark 52). Perform the trigger operation.

なお、頭部装着具20を頭部に装着したユーザは、表示画面51上の標的マーク52は視認できるものの、自分の手元にあるコントローラ10の姿勢や向きを視認することはできない。しかし、個人差はあるものの、一般に、人は、経験的に培った体感を通じて、無意識のうちに、手元のコントローラ10の姿勢を変えることで、コントローラ10を表示画面51上の標的マーク52に向ける(すなわち、狙いを定める)ことができる。   Note that a user who wears the head-mounted device 20 on the head can visually recognize the target mark 52 on the display screen 51 but cannot visually recognize the posture and orientation of the controller 10 at his / her hand. However, although there are individual differences, in general, a person turns the controller 10 toward the target mark 52 on the display screen 51 by unconsciously changing the posture of the controller 10 at hand through the experience cultivated through experience. (Ie, aiming).

所定のトリガー操作としては、コントローラ10に備えられた5つのボタン13〜17のうちの1つ又は2つ以上の押下(同時押下)又は押下時間等々を適宜に組み合わせることにより任意に設定することができる。   The predetermined trigger operation may be arbitrarily set by appropriately combining one or two or more pressing (simultaneous pressing) or pressing time of the five buttons 13 to 17 provided in the controller 10. it can.

トリガー操作が行われると、第1のモーションセンサ(1003〜1005)を介して検知されるワールド座標上の基本姿勢から導き出されるコントローラ10の指し示す方向(θ1,φ1)と第2のモーションセンサ(506〜508)を介して検知されるワールド座標上の基本姿勢から導き出される頭部装着具(スマートフォン)20の指し示す方向(θ2,φ2)との差分を補正値として取得する補正値取得処理(ステップ604)が実行される。具体的には、補正値取得処理(ステップ604)としては、例えば、照準位置SIGHT_pos(図13のステップ208参照)とカメラ視野Cam_view(図13のステップ210)の中心位置との差を補正値として記憶(取得)するようにしてもよい。なお、これは補正値の単なる一例に過ぎない。より一般的に言えば、補正値取得処理(ステップ604)としては、要するに、上記の標的方向と照準方向とをそれぞれ代表するために演算上使用される何らかの2つの情報に着目してその差を補正値として取得すればよいことは、当業者であれば容易に理解されるであろう。   When the trigger operation is performed, the direction (θ1, φ1) indicated by the controller 10 derived from the basic posture on the world coordinates detected via the first motion sensors (1003 to 1005) and the second motion sensor (506) Correction value acquisition processing (step 604) for acquiring, as a correction value, a difference from the direction (θ2, φ2) indicated by the head-mounted device (smartphone) 20 derived from the basic posture on the world coordinates detected through ˜508). ) Is executed. Specifically, as the correction value acquisition process (step 604), for example, the difference between the aim position SIGHT_pos (see step 208 in FIG. 13) and the center position of the camera field of view Cam_view (step 210 in FIG. 13) is used as the correction value. You may make it memorize | store (acquire). This is merely an example of a correction value. More generally speaking, as the correction value acquisition process (step 604), in short, paying attention to some two pieces of information used for calculation to represent the target direction and the aiming direction, the difference is calculated. Those skilled in the art will easily understand that the correction value may be obtained.

トリガー操作が行われるのは、頭部装着具20が正面に向けられ、かつコントローラ10も正面(画面中心)に向けられた状態であるから、本来、コントローラ10の推定向き(θ1,φ1)と頭部装着具20の推定向き(θ2,φ2)とは一致する筈であるから、それらの差分こそが、いわゆる照準の狂いに相当するのである。   The trigger operation is performed because the head-mounted device 20 is directed to the front and the controller 10 is also directed to the front (center of the screen). Since the estimated orientation (θ2, φ2) of the head-mounted device 20 should match, the difference between them corresponds to the so-called misalignment of the aim.

補正値取得処理(ステップ604)が終了すると、続いて、補正処理(ステップ605)が実行される。この補正処理(ステップ605)においては、コントローラ10及び/又は頭部装着具20のモーションセンサを介して指し示される推定方向に対して、以後、補正値を加算又は減算することにより、それらの指し示す方向を補正する。これにより、コントローラ10及び頭部装着具20の各推定方向の基準点が整合することとなるため、コントローラ10の姿勢を介して指し示したつもりの照準方向とコントローラ10のモーションセンサを介して指し示される照準方向とを、3軸地磁気センサの検知特性のバラツキや変動に拘わらず感覚的に一致させて、照準の狂いによる操作者の違和感を解消することができるのである。   When the correction value acquisition process (step 604) ends, the correction process (step 605) is subsequently executed. In this correction process (step 605), the estimated values indicated by the controller 10 and / or the motion sensor of the head-mounted device 20 are indicated by adding or subtracting correction values thereafter. Correct the direction. As a result, the reference points in the respective estimated directions of the controller 10 and the head-mounted device 20 are aligned, and therefore the pointing direction intended to be indicated through the attitude of the controller 10 is indicated via the motion sensor of the controller 10. It is possible to eliminate the uncomfortable feeling of the operator due to the misalignment of the sight, by matching the sighting direction to be sensed regardless of variations or fluctuations in the detection characteristics of the triaxial geomagnetic sensor.

続いて、校正済みフラグの内容をONに設定したのち(ステップ606)、処理は終了する。以後の実行サイクルにおいては、ステップ601において校正済みフラグはONと判定されるため(ステップ601YES)、操作案内処理(ステップ602)、補正値取得処理(ステップ604)、及び補正処理(ステップ605)はスキップされるから、実行されることはない。なお、この補正処理(ステップ605)においては、上述の補正値を用いて、コントローラ10並びに頭部装着具(スマートフォン)20の基本姿勢も補正される。   Subsequently, after the content of the calibrated flag is set to ON (step 606), the process ends. In the subsequent execution cycle, since the calibrated flag is determined to be ON in step 601 (step 601 YES), the operation guidance process (step 602), the correction value acquisition process (step 604), and the correction process (step 605) are performed. Because it is skipped, it is never executed. In this correction process (step 605), the basic postures of the controller 10 and the head-mounted device (smartphone) 20 are also corrected using the correction values described above.

以後、補正後の基本姿勢を用いて一連の処理(ステップ205〜211)が実行される結果、照準位置SIGHT_posの狂いは修正されるから、コントローラ10の姿勢を介して指し示される実空間上の標的方向とコントローラ10のワールド座標上の姿勢情報に基づいて指し示される仮想空間上の照準方向とを、3軸地磁気センサの検知特性の製品毎のバラツキに拘わらず、正確に一致させることが可能となるのである。   Thereafter, as a result of executing a series of processes (steps 205 to 211) using the corrected basic posture, the deviation of the aiming position SIGHT_pos is corrected, and thus, in the real space indicated through the posture of the controller 10. The target direction and the aiming direction in the virtual space indicated based on the posture information on the world coordinates of the controller 10 can be accurately matched regardless of the variation in the detection characteristics of the three-axis geomagnetic sensor for each product. It becomes.

[アプリケーションプログラムの任意の時点で実行される照準方向校正処理]
先に説明したように、コントローラ10の照準に狂いが生ずる原因には、周囲温度等の環境条件に起因する3軸地磁気センサ1005の経時的変化の場合もあることが認められている。この場合、使用開示時には狂いはなくとも、使用中次第に狂いが生ずるから、上述の開始時校正処理だけでは不十分である。この問題は、下記の開始時校正処理により解決することができる。
[Aiming direction calibration process executed at an arbitrary point in the application program]
As described above, it has been recognized that the reason why the aim of the controller 10 is distorted may be a change with time of the triaxial geomagnetic sensor 1005 due to environmental conditions such as ambient temperature. In this case, even if there is no error at the time of use disclosure, the error occurs gradually during use. Therefore, the above-described calibration process at the start is not sufficient. This problem can be solved by the following start-up calibration process.

開始後校正処理の詳細フローチャートが、図17に示されている。この処理は、予め決められたトリガー操作により任意の時点で開始される。トリガー操作としては、例えば、コントローラ10に備えられた5個のボタン13〜17の中で特定の2個のボタンを同時に押下しかつ長押しする操作が選ばれている。このようなボタン操作は、通常時には、極めて希である。   A detailed flowchart of the calibration process after the start is shown in FIG. This process is started at an arbitrary time by a predetermined trigger operation. As the trigger operation, for example, an operation of simultaneously pressing and long-pressing two specific buttons among the five buttons 13 to 17 provided in the controller 10 is selected. Such a button operation is extremely rare during normal times.

同図において、上述のトリガー操作により割り込みにより処理が開始されると、先ず、操作案内処理(ステップ701)が実行されて、図10に示される画面と同様な内容の画面が表示される。   In the figure, when the process is started by an interruption by the trigger operation described above, first, an operation guidance process (step 701) is executed, and a screen having the same contents as the screen shown in FIG. 10 is displayed.

この状態において、ユーザは、コントローラ10を標的マーク52に向けたまま、長押し状態を継続する。すると、タイマ起動処理(ステップ702)、ボタン押し継続判定処理(ステップ703)、及びタイムアップ判定処理(ステップ704)が実行される結果、予め想定された2個のボタンの同時長押しが行われた場合に限り(ステップ703YES、704YES)、補正値取得処理(ステップ705)が実行される。   In this state, the user keeps pressing the controller 10 toward the target mark 52 while continuing the long press state. Then, the timer activation process (step 702), the button press continuation determination process (step 703), and the time-up determination process (step 704) are executed, and as a result, two buttons previously assumed to be simultaneously pressed are performed. The correction value acquisition process (step 705) is executed only in the case where the correction value is obtained (YES in steps 703 and 704).

なお、この補正値取得処理(ステップ705)の内容は、先に図16を参照しつつ説明した補正値取得処理(ステップ604)と同様であって、第1のモーションセンサ(1003〜1005)を介して検知されるワールド座標上の基本姿勢から導き出されるコントローラ10の指し示す方向(θ1,φ1)と第2のモーションセンサ(506〜508)を介して検知されるワールド座標上の基本姿勢から導き出される頭部装着具(スマートフォン)20の指し示す方向(θ2,φ2)との差分を補正値として取得する補正値取得処理(ステップ604)が実行される。具体的には、補正値取得処理(ステップ604)としては、例えば、照準位置SIGHT_pos(図13のステップ208参照)とカメラ視野Cam_view(図13のステップ210)の中心位置との差を補正値として記憶(取得)するようにしてもよい。なお、これは補正値の単なる一例に過ぎない。より一般的に言えば、補正値取得処理(ステップ604)としては、要するに、上記の標的方向と照準方向とをそれぞれ代表するために演算上使用される何らかの2つの情報に着目してその差を補正値として取得すればよいことは、当業者であれば容易に理解されるであろう。   The correction value acquisition process (step 705) is the same as the correction value acquisition process (step 604) described above with reference to FIG. 16, and the first motion sensors (1003 to 1005) are used. It is derived from the direction (θ1, φ1) indicated by the controller 10 derived from the basic posture on the world coordinates detected via the second coordinate system and the basic posture on the world coordinates detected via the second motion sensors (506 to 508). A correction value acquisition process (step 604) for acquiring a difference from the direction (θ2, φ2) indicated by the head-mounted device (smartphone) 20 as a correction value is executed. Specifically, as the correction value acquisition process (step 604), for example, the difference between the aim position SIGHT_pos (see step 208 in FIG. 13) and the center position of the camera field of view Cam_view (step 210 in FIG. 13) is used as the correction value. You may make it memorize | store (acquire). This is merely an example of a correction value. More generally speaking, as the correction value acquisition process (step 604), in short, paying attention to some two pieces of information used for calculation to represent the target direction and the aiming direction, the difference is calculated. Those skilled in the art will easily understand that the correction value may be obtained.

これにより、コントローラ10及び頭部装着具20の各推定方向の基準点が整合することとなるため、コントローラ10の姿勢を介して指し示したつもりの照準方向とコントローラ10のモーションセンサを介して指し示される照準方向とを、3軸地磁気センサの検知特性のバラツキや変動に拘わらず感覚的に一致させて、照準の狂いによる操作者の違和感を解消することができるのである。   As a result, the reference points in the respective estimated directions of the controller 10 and the head-mounted device 20 are aligned, and therefore the pointing direction intended to be indicated through the attitude of the controller 10 is indicated via the motion sensor of the controller 10. It is possible to eliminate the uncomfortable feeling of the operator due to the misalignment of the sight, by matching the sighting direction to be sensed regardless of variations or fluctuations in the detection characteristics of the triaxial geomagnetic sensor.

補正値取得処理(ステップ705)が終了すると、以後、先ほどと同様にして、補正処理(ステップ706)が実行される。すなわち、この補正処理(ステップ605)においては、コントローラ10及び/又は頭部装着具20のモーションセンサを介して指し示される推定方向に対して、以後、補正値を加算又は減算することにより、それらの指し示す方向を補正する。これにより、コントローラ10及び頭部装着具20の各推定方向の基準点が整合することとなるため、コントローラ10の姿勢を介して指し示したつもりの照準方向とコントローラ10のモーションセンサを介して指し示される照準方向とを、3軸地磁気センサの検知特性のバラツキや変動に拘わらず感覚的に一致させて、照準の狂いによる操作者の違和感を解消することができるのである。   When the correction value acquisition process (step 705) ends, the correction process (step 706) is executed in the same manner as before. That is, in this correction process (step 605), by adding or subtracting a correction value to the estimated direction indicated through the motion sensor of the controller 10 and / or the head-mounted device 20 thereafter, Correct the direction indicated by. As a result, the reference points in the respective estimated directions of the controller 10 and the head-mounted device 20 are aligned, and therefore the pointing direction intended to be indicated through the attitude of the controller 10 is indicated via the motion sensor of the controller 10. It is possible to eliminate the uncomfortable feeling of the operator due to the misalignment of the sight, by matching the sighting direction to be sensed regardless of variations or fluctuations in the detection characteristics of the triaxial geomagnetic sensor.

上述の開始後校正処理によれば、情報処理システムの使用開始後、周囲温度等の環境条件によりコントローラ10の照準に狂いが生じたと認められる場合には、直ちに、所定のトリガー操作(例えば、2つのボタンの同時長押し操作)を行って、実空間上の照準方向と仮想空間上の照準方向とが一致するように照準校正を行うことができる。   According to the above-described post-start calibration process, when it is recognized that the aim of the controller 10 has become unstable due to environmental conditions such as the ambient temperature after the start of use of the information processing system, a predetermined trigger operation (for example, 2 The aiming calibration can be performed so that the aiming direction in the real space coincides with the aiming direction in the virtual space.

なお、以上の操作案内処理(ステップ602、701)では、標的マーク52と照準マーク53との双方を表示する例を示したが、これらは必須のものではない。例えば、標的マーク52は表示するものの、照準マーク53の表示は省略することもできる。さらに、標的位置が画面の中心と決まっているのであれば、誰でも画面中心は容易に認識できるから、標的マーク52の表示ついても省略することができる。   In addition, although the example which displays both the target mark 52 and the aiming mark 53 was shown in the above operation guidance process (steps 602 and 701), these are not essential. For example, although the target mark 52 is displayed, the display of the aiming mark 53 can be omitted. Further, if the target position is determined to be the center of the screen, anyone can easily recognize the center of the screen, and therefore the display of the target mark 52 can be omitted.

本発明によれば、前記空間ポインティング処理に含まれる校正処理の作用により、コントローラ及び頭部装着具の各推定方向の基準点が整合することとなるため、コントローラの姿勢を介して指し示したつもりの照準方向とコントローラのモーションセンサを介して指し示される照準方向とを、3軸地磁気センサの検知特性のバラツキや変動に拘わらず感覚的に一致させて、照準の狂いによる操作者の違和感を解消することができる。   According to the present invention, the reference point of each estimated direction of the controller and the head-mounted device is matched by the action of the calibration process included in the space pointing process, and therefore it is intended to be indicated through the attitude of the controller. The aiming direction and the aiming direction indicated via the motion sensor of the controller are matched sensuously regardless of variations or fluctuations in the detection characteristics of the 3-axis geomagnetic sensor, thus eliminating the operator's uncomfortable feeling due to misalignment of the aiming. be able to.

1 情報処理システム
10 コントローラ
11 本体後部
12 本体前部
13 中央ボタン
14 左側ボタン
15 右側ボタン
16 上側ボタン
17 下側ボタン
18 スライド操作子
20 頭部装着具
21 頭周ベルト
22 頭頂ベルト
23 本体
24 開口
25 蓋板
26 保持具
27a 雌型留め具
27b 雄型留め具
28 仕切り板
29 レンズ
40 人
41 頭部
43 目
44 手
50 スマートフォン
51 画面
52 標的マーク
53 照準マーク
501 制御部
502 記憶部
503 ディスプレイ
504 入力操作部(タッチパネル)
505 入力操作部(ボタン)
506 3軸加速度センサ
507 3軸角速度センサ
508 3軸地磁気センサ
509 GPS
510 照度センサ
511 タイマ
512 バッテリ
513 振動部
514 通信ユニット
515 音声出力部
516 音声入力部
517 スピーカ部
518 カメラユニット
519 コネクタ
DESCRIPTION OF SYMBOLS 1 Information processing system 10 Controller 11 Main body rear part 12 Main body front part 13 Center button 14 Left button 15 Right button 16 Upper button 17 Lower button 18 Slide operator 20 Head wearing tool 21 Head circumference belt 22 Head belt 23 Main body 24 Opening 25 Cover plate 26 Holder 27a Female fastener 27b Male fastener 28 Partition plate 29 Lens 40 Human 41 Head 43 Eye 44 Hand 50 Smartphone 51 Screen 52 Target mark 53 Aim mark 501 Control unit 502 Storage unit 503 Display 504 Input operation Part (touch panel)
505 Input operation unit (button)
506 Triaxial acceleration sensor 507 Triaxial angular velocity sensor 508 Triaxial geomagnetic sensor 509 GPS
510 Illuminance sensor 511 Timer 512 Battery 513 Vibration unit 514 Communication unit 515 Audio output unit 516 Audio input unit 517 Speaker unit 518 Camera unit 519 Connector

Claims (9)

少なくとも3軸地磁気センサを含む第1のモーションセンサが組み込まれたコントローラと、
少なくとも3軸地磁気センサを含む第2のモーションセンサ及びディスプレイが組み込まれた頭部装着具と、
前記第1及び第2のモーションセンサのそれぞれから得られる前記コントローラ及び頭部装着具の姿勢情報をローカル座標からワールド座標へと変換すると共に、ワールド座標上の各姿勢情報に基づいて、仮想空間におけるヘッドトラッキング表示処理及び空間ポインティング処理を実行する情報処理部とを備え、
前記空間ポインティング処理には、前記第1のモーションセンサを介して推定されるコントローラの指し示す方向の基準点と前記第2のモーションセンサを介して推定される頭部装着具の指し示す方向の基準点とが整合するように両者の関係を校正する校正処理が含まれている、情報処理システム。
A controller incorporating a first motion sensor including at least a three-axis geomagnetic sensor;
A head mounted device incorporating a second motion sensor and display including at least a triaxial geomagnetic sensor;
The posture information of the controller and the head-mounted tool obtained from each of the first and second motion sensors is converted from local coordinates to world coordinates, and in the virtual space based on the posture information on the world coordinates. An information processing unit that performs head tracking display processing and spatial pointing processing;
The spatial pointing process includes a reference point in the direction indicated by the controller estimated via the first motion sensor, and a reference point in the direction indicated by the head-mounted device estimated via the second motion sensor. An information processing system that includes a calibration process that calibrates the relationship between the two so that they match.
前記校正処理は、
所定の操作が行われたとき、前記第1のモーションセンサを介して推定されるコントローラの指し示す方向と前記第2のモーションセンサを介して推定される頭部装着具の指し示す方向との差分を補正値として取得する補正値取得処理と、
前記コントローラ及び/又は前記頭部装着具の指し示す方向に対して、以後、前記補正値を加算又は減算することにより、それらの指し示す方向を補正する補正処理とを含む、請求項1に記載の情報処理システム。
The calibration process is
When a predetermined operation is performed, the difference between the direction indicated by the controller estimated via the first motion sensor and the direction indicated by the head-mounted device estimated via the second motion sensor is corrected. Correction value acquisition processing to be acquired as a value;
2. The information according to claim 1, further comprising: a correction process for correcting the direction indicated by the controller and / or the head-mounted tool by subsequently adding or subtracting the correction value. Processing system.
前記補正値取得処理に先立って、前記コントローラの姿勢を介して照準を合わせるべき標的方向を示すための操作案内をユーザに対して行う、請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein prior to the correction value acquisition process, operation guidance is provided to a user to indicate a target direction to be aimed through the attitude of the controller. 前記操作案内が、前記ディスプレイの画面上に前記標的方向を示す標的マークを描くことにより、前記コントローラの姿勢を介して前記標的マークを指し示すように仕向けるものである、請求項3に記載の情報処理システム。   The information processing according to claim 3, wherein the operation guide is directed to point the target mark through a posture of the controller by drawing a target mark indicating the target direction on the screen of the display. system. 前記標的方向が前記ディスプレイの画面中心を指し示す方向である、請求項2〜4に記載の情報処理システム。   The information processing system according to claim 2, wherein the target direction is a direction indicating a screen center of the display. 前記校正処理は、前記情報処理システムにおいて、任意のアプリケーションプログラムを実行するに際して、その開始時点で実行可能とされている、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the calibration process can be executed at a start time when an arbitrary application program is executed in the information processing system. 前記校正処理は、前記情報処理システムにおいて、任意のアプリケーションプログラムを実行するに際して、その開始後の任意の時点で所定の操作に応答して実行可能とされている、請求項1に記載の情報処理システム。   2. The information processing according to claim 1, wherein the calibration process can be executed in response to a predetermined operation at an arbitrary time after the start of executing an arbitrary application program in the information processing system. system. 前記情報処理部が、前記頭部装着具に組み込まれ、かつ前記コントローラと通信可能なスマートフォンであり、かつ
前記第2のモーションセンサ及び前記ディスプレイが、前記スマートフォンに組み込まれたモーションセンサ及びディスプレイである、請求項1〜9のいずれか1つに記載の情報処理システム。
The information processing unit is a smartphone incorporated in the head-mounted device and capable of communicating with the controller, and the second motion sensor and the display are a motion sensor and a display incorporated in the smartphone. The information processing system according to any one of claims 1 to 9.
スマートフォンを、請求項9に記載の情報処理システムに組み込まれたスマートフォントして機能させるためのコンピュータプログラム。   A computer program for causing a smartphone to function as a smartphone incorporated in the information processing system according to claim 9.
JP2016172237A 2016-09-02 2016-09-02 Information processing system Pending JP2018037034A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016172237A JP2018037034A (en) 2016-09-02 2016-09-02 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172237A JP2018037034A (en) 2016-09-02 2016-09-02 Information processing system

Publications (1)

Publication Number Publication Date
JP2018037034A true JP2018037034A (en) 2018-03-08

Family

ID=61565867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172237A Pending JP2018037034A (en) 2016-09-02 2016-09-02 Information processing system

Country Status (1)

Country Link
JP (1) JP2018037034A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189274A1 (en) * 2019-03-19 2020-09-24 キヤノン株式会社 Electronic device, method for controlling electronic device, program, and storage medium
CN112148139A (en) * 2020-09-28 2020-12-29 联想(北京)有限公司 Gesture recognition method and computer readable storage medium
US20210141044A1 (en) * 2018-06-25 2021-05-13 Gatekeeper Systems, Inc. Dual magnetometer calibration
WO2023243024A1 (en) * 2022-06-16 2023-12-21 株式会社ビジョン・コンサルティング Split-type smart device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174856A (en) * 2004-12-20 2006-07-06 Yamaha Corp Processor with means for switching controller function
WO2012005005A1 (en) * 2010-07-07 2012-01-12 パナソニック株式会社 Terminal apparatus and method of generating gui screen
JP2012118299A (en) * 2010-12-01 2012-06-21 Casio Comput Co Ltd Performance device and electronic musical instrument
WO2014185146A1 (en) * 2013-05-15 2014-11-20 ソニー株式会社 Display control device, display control method, and recording medium
US20160062514A1 (en) * 2014-09-01 2016-03-03 Samsung Electronics Co., Ltd. Electronic device, method for controlling the electronic device, and recording medium
JP5944600B1 (en) * 2015-08-28 2016-07-05 株式会社タカラトミー Information processing device with head-mounted display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174856A (en) * 2004-12-20 2006-07-06 Yamaha Corp Processor with means for switching controller function
WO2012005005A1 (en) * 2010-07-07 2012-01-12 パナソニック株式会社 Terminal apparatus and method of generating gui screen
JP2012118299A (en) * 2010-12-01 2012-06-21 Casio Comput Co Ltd Performance device and electronic musical instrument
WO2014185146A1 (en) * 2013-05-15 2014-11-20 ソニー株式会社 Display control device, display control method, and recording medium
US20160062514A1 (en) * 2014-09-01 2016-03-03 Samsung Electronics Co., Ltd. Electronic device, method for controlling the electronic device, and recording medium
JP5944600B1 (en) * 2015-08-28 2016-07-05 株式会社タカラトミー Information processing device with head-mounted display

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210141044A1 (en) * 2018-06-25 2021-05-13 Gatekeeper Systems, Inc. Dual magnetometer calibration
US11675040B2 (en) * 2018-06-25 2023-06-13 Gatekeeper Systems, Inc. Dual magnetometer calibration
WO2020189274A1 (en) * 2019-03-19 2020-09-24 キヤノン株式会社 Electronic device, method for controlling electronic device, program, and storage medium
JP2020154567A (en) * 2019-03-19 2020-09-24 キヤノン株式会社 Electronic apparatus, control method therefor, program, and storage medium
US11740477B2 (en) 2019-03-19 2023-08-29 Canon Kabushiki Kaisha Electronic device, method for controlling electronic device, and non-transitory computer readable storage medium
JP7341685B2 (en) 2019-03-19 2023-09-11 キヤノン株式会社 Electronic equipment, electronic equipment control method, program, and storage medium
CN112148139A (en) * 2020-09-28 2020-12-29 联想(北京)有限公司 Gesture recognition method and computer readable storage medium
CN112148139B (en) * 2020-09-28 2022-07-26 联想(北京)有限公司 Gesture recognition method and computer readable storage medium
WO2023243024A1 (en) * 2022-06-16 2023-12-21 株式会社ビジョン・コンサルティング Split-type smart device

Similar Documents

Publication Publication Date Title
US9703102B2 (en) Information processing device including head mounted display
US11513605B2 (en) Object motion tracking with remote device
CN109643159B (en) Manipulating virtual objects with six degree-of-freedom controllers in augmented and/or virtual reality environments
JP2018036720A (en) Virtual space observation system, method and program
CN105759422B (en) Display system and control method of display device
EP3156110A1 (en) Information processing device provided with head-mounted display
US8655622B2 (en) Method and apparatus for interpreting orientation invariant motion
AU2013347935B2 (en) Computing interface system
EP3376278A1 (en) Hmd device and control method therefor
JP2018037034A (en) Information processing system
CN108351690A (en) Information processing unit, information processing system and information processing method
JP5814532B2 (en) Display control program, display control apparatus, display control system, and display control method
KR101525226B1 (en) Motion recognizing glove for augmented reality
WO2017064972A1 (en) Wearable device, method for measuring orientation of same, and program
JP2012221259A (en) Information processing program, information processor, information processing system and information processing method
US11630520B1 (en) Systems and methods for sensing gestures via vibration-sensitive wearables donned by users of artificial reality systems
JP5816032B2 (en) INPUT DEVICE, INPUT PROCESSING PROGRAM, INPUT PROCESSING METHOD, INPUT PROCESSING SYSTEM
JP6157703B1 (en) Information processing method, program for causing computer to execute information processing method, and computer
US20160091717A1 (en) Head-mounted display system and operation method thereof
JP2019109849A (en) Transmissive head-mounted display device, display control method, and computer program
JP6439448B2 (en) Display system, program, and control method for display device
US20180314330A1 (en) Haptic device linked with augmented reality or virtual reality implementation device
JP2018110871A (en) Information processing method, program enabling computer to execute method and computer
JP2019020836A (en) Information processing method, device, and program for causing computer to execute the method
JP6518028B1 (en) Display device, display method, program, and non-transitory computer readable information recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210303