JP2021064332A - Information processing device, information processing system, and information processing method - Google Patents

Information processing device, information processing system, and information processing method Download PDF

Info

Publication number
JP2021064332A
JP2021064332A JP2019190246A JP2019190246A JP2021064332A JP 2021064332 A JP2021064332 A JP 2021064332A JP 2019190246 A JP2019190246 A JP 2019190246A JP 2019190246 A JP2019190246 A JP 2019190246A JP 2021064332 A JP2021064332 A JP 2021064332A
Authority
JP
Japan
Prior art keywords
information processing
devices
information
controller
attachment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019190246A
Other languages
Japanese (ja)
Inventor
渉一 池上
Shoichi Ikegami
渉一 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2019190246A priority Critical patent/JP2021064332A/en
Publication of JP2021064332A publication Critical patent/JP2021064332A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To easily improve the versatility of a device used for user operation.SOLUTION: A measurement value acquisition unit 52 of an information processing device 10 acquires measured values from a motion sensor 41 of a controller 14 and a motion sensor 44 of an attachment 18. A connection determination unit 54 compares waveforms representing time-variation of the measured values, and when the difference is smaller than a threshold, determines that the controller 14 and the attachment 18 are connected. An information processing unit 58 combines a user operation to the controller 14 and positional information obtained from a pickup image of the attachment 18 to obtain input value and performs a series of information processing.SELECTED DRAWING: Figure 4

Description

本発明は、ユーザ操作に応じて情報処理を行う情報処理装置、情報処理システム、および情報処理方法に関する。 The present invention relates to an information processing device, an information processing system, and an information processing method that perform information processing according to a user operation.

情報処理技術の発展により、より直感的な操作で高度な処理を実現できるユーザインターフェースが実用化されている。例えばユーザに装着したマーカを動画撮影し、それをリアルタイムで解析することによりユーザの動きを取得して、情報処理の入力値として用いる技術は広い分野で活用されている。これを応用して、ユーザの動きを反映させた仮想世界の画像を、顔の向きに応じた視野で描画しヘッドマウントディスプレイに表示させれば、仮想現実を実現することもできる。 With the development of information processing technology, a user interface that can realize advanced processing with more intuitive operations has been put into practical use. For example, a technique of capturing a moving image of a marker attached to a user, analyzing the marker in real time to acquire the movement of the user, and using it as an input value for information processing is used in a wide range of fields. By applying this, a virtual reality can be realized by drawing an image of a virtual world that reflects the movement of the user in a field of view according to the orientation of the face and displaying it on a head-mounted display.

一方、仮想世界での電子ゲームなど、さらに複雑な情報処理を実現するには、ユーザの動きだけでなく、多様かつ細かい入力が可能なコントローラや入力装置も必要になることが多い。このように複数種類の情報を用いて情報処理を行う場合、全ての情報を得ることのできるデバイスを入力装置として導入することが考えられる。ところが情報処理の内容が多様化しているため、全てに対応できるデバイスを準備するのは困難である。また、新たな情報処理技術が開発され、必要な入力情報が変化する都度デバイスを取り替えるのでは、ユーザの負担が大きくなる。 On the other hand, in order to realize more complicated information processing such as electronic games in a virtual world, not only user movements but also controllers and input devices capable of various and detailed inputs are often required. When information processing is performed using a plurality of types of information in this way, it is conceivable to introduce a device capable of obtaining all the information as an input device. However, due to the diversification of information processing content, it is difficult to prepare a device that can handle all of them. In addition, if a new information processing technology is developed and the device is replaced every time the required input information changes, the burden on the user becomes heavy.

本発明はこうした課題に鑑みてなされたものであり、その目的は、ユーザ操作に用いるデバイスの汎用性を容易に向上させることのできる技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide a technique capable of easily improving the versatility of a device used for user operation.

本発明のある態様は情報処理装置に関する。この情報処理装置は、複数のデバイスがそれぞれ備えるモーションセンサの計測値を取得する計測値取得部と、計測値の時間変化を表す波形を比較することにより、複数のデバイスが結合していることを判定する結合判定部と、結合している複数のデバイスのそれぞれを介して得られる情報の組み合わせに基づき情報処理を実施する情報処理部と、を備えたことを特徴とする。 One aspect of the present invention relates to an information processing device. In this information processing device, the measurement value acquisition unit that acquires the measurement value of the motion sensor provided by each of the plurality of devices is compared with the waveform representing the time change of the measurement value, so that the plurality of devices are combined. It is characterized by including a coupling determination unit for determination and an information processing unit for performing information processing based on a combination of information obtained via each of a plurality of coupled devices.

本発明の別の態様は情報処理システムに関する。この情報処理システムは、モーションセンサを備えた複数のデバイスと、当該デバイスの結合体を介して入力値を取得し、それに応じた情報処理を実施する情報処理装置と、を備え、情報処理装置は、複数のデバイスがそれぞれ備えるモーションセンサの計測値を取得する計測値取得部と、計測値の時間変化を表す波形を比較することにより、複数のデバイスが結合していることを判定する結合判定部と、結合している複数のデバイスのそれぞれを介して得られる情報の組み合わせに基づき情報処理を実施する情報処理部と、を備えたことを特徴とする。 Another aspect of the present invention relates to an information processing system. This information processing system includes a plurality of devices equipped with motion sensors and an information processing device that acquires input values via a combination of the devices and performs information processing according to the input values. , A coupling determination unit that determines that multiple devices are coupled by comparing the measured value acquisition unit that acquires the measured values of the motion sensors provided by each of the multiple devices with the waveform that represents the time change of the measured values. It is characterized by including an information processing unit that performs information processing based on a combination of information obtained via each of a plurality of coupled devices.

本発明のさらに別の態様は情報処理方法に関する。この情報処理方法は情報処理装置が、複数のデバイスがそれぞれ備えるモーションセンサの計測値を取得するステップと、計測値の時間変化を表す波形を比較することにより、複数のデバイスが結合していることを判定するステップと、結合している複数のデバイスのそれぞれを介して得られる情報の組み合わせに基づき情報処理を実施するステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to an information processing method. In this information processing method, the information processing device combines a plurality of devices by comparing the step of acquiring the measured value of the motion sensor provided in each of the plurality of devices with the waveform representing the time change of the measured value. It is characterized by including a step of determining the above and a step of performing information processing based on a combination of information obtained via each of a plurality of coupled devices.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between a method, a device, a system, a computer program, a recording medium on which a computer program is recorded, and the like are also effective as aspects of the present invention. ..

本発明によると、ユーザ操作に用いるデバイスの汎用性を容易に向上させることができる。 According to the present invention, the versatility of the device used for user operation can be easily improved.

本実施の形態において結合させる複数のデバイスを例示する図である。It is a figure which illustrates a plurality of devices to be coupled in this embodiment. 本実施の形態を適用できる情報処理システムの構成例を示す図である。It is a figure which shows the configuration example of the information processing system to which this embodiment can be applied. 本実施の形態における情報処理装置の内部回路構成を示す図である。It is a figure which shows the internal circuit structure of the information processing apparatus in this embodiment. 本実施の形態における情報処理装置、コントローラ、およびアタッチメントの機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of an information processing apparatus, a controller, and an attachment in this embodiment. 本実施の形態において、波形比較部がモーションセンサの計測値の波形を比較する処理を説明するための図である。In this embodiment, it is a figure for demonstrating the process which the waveform comparison part compares the waveform of the measured value of a motion sensor. 本実施の形態において、ユーザ通知部がコントローラに所定の動きを与えるようユーザに要求する際に表示させる画面の例を示す図である。In this embodiment, it is a figure which shows an example of the screen which is displayed when the user notification part requests a user to give a predetermined motion to a controller. 本実施の形態において、情報処理装置がコントローラとアタッチメントに係る情報を組み合わせて情報処理を行う処理手順を示すフローチャートである。In this embodiment, it is a flowchart showing a processing procedure in which an information processing apparatus performs information processing by combining information related to a controller and an attachment. 本実施の形態において情報処理部が入力値として利用できる情報を例示する図である。It is a figure which illustrates the information which can be used as an input value by an information processing unit in this embodiment.

本実施の形態では、複数のデバイスを結合させ、それぞれから得られる情報を組み合わせて入力値とすることで情報処理を行う。図1は、本実施の形態において結合させる複数のデバイスを例示している。この例では、ユーザ操作のためのデバイスとして、コントローラ14とアタッチメント18を結合させる。(a)に示すように、コントローラ14とアタッチメント18は、本来は別の筐体を有する。それを(b)に示すように結合させることにより、ユーザは当該結合体を入力装置として用いる。 In the present embodiment, information processing is performed by combining a plurality of devices and combining information obtained from each device into an input value. FIG. 1 illustrates a plurality of devices to be coupled in the present embodiment. In this example, the controller 14 and the attachment 18 are coupled as a device for user operation. As shown in (a), the controller 14 and the attachment 18 originally have different housings. By combining it as shown in (b), the user uses the combined body as an input device.

ここでコントローラ14は、例えばゲームのコントローラであり、各種操作ボタンやジョイスティックなど一般的な操作手段を備える。アタッチメント18は、例えば反射部材や発光体を備え、その撮影画像を解析することにより3次元空間での位置を特定するためのマーカの役割を果たす。これらを結合させることにより、位置情報が得られない構成のコントローラ14であっても、撮影画像に基づき位置を追跡できる。 Here, the controller 14 is, for example, a game controller, and includes general operation means such as various operation buttons and a joystick. The attachment 18 includes, for example, a reflecting member or a light emitting body, and serves as a marker for identifying a position in a three-dimensional space by analyzing a photographed image thereof. By combining these, even the controller 14 having a configuration in which position information cannot be obtained can track the position based on the captured image.

このように異なる機能を有する複数のデバイスを結合させることにより、単体では得られない多くの情報を入力値として用い複雑な処理が可能となる。また取り外し可能にすることにより、状況に応じて結合させるデバイスを入れ替え、得られる情報を最適化したり、単体で用いて軽量かつ小型の入力装置としたりできる。ただしデバイスを自由に付け替えたり外したりする状況を許容すると、(b)のように複数のデバイスが結合しているか否か、結合している場合はどのデバイス同士が結合しているか、などを情報処理装置が認識する必要がある。 By combining a plurality of devices having different functions in this way, complicated processing can be performed by using a large amount of information that cannot be obtained by a single unit as an input value. In addition, by making it removable, it is possible to replace the devices to be combined according to the situation, optimize the information obtained, or use it alone as a lightweight and compact input device. However, if the situation where the device is freely replaced or removed is allowed, information such as whether or not multiple devices are combined as shown in (b), and if so, which devices are combined, etc. It needs to be recognized by the processing device.

例えば複数のユーザが、それぞれ(b)に示す結合体を入力装置としてゲームをプレイする場合、複数のコントローラ14と複数のアタッチメント18の組み合わせがわからなければ、それぞれから得られる情報を組み合わせることができない。そのためには例えば、コントローラ14とアタッチメント18を電気的に接続し、どのアタッチメント18が接続されたかをコントローラ14が認識したうえ、その情報を情報処理装置に送信させることが考えられる。しかしながらこの場合、接続のためのコネクタや通信機構を設ける必要がありコストの面で不利となる。 For example, when a plurality of users play a game using the combination shown in (b) as an input device, the information obtained from each cannot be combined unless the combination of the plurality of controllers 14 and the plurality of attachments 18 is known. .. For that purpose, for example, it is conceivable that the controller 14 and the attachment 18 are electrically connected, the controller 14 recognizes which attachment 18 is connected, and then the information is transmitted to the information processing apparatus. However, in this case, it is necessary to provide a connector and a communication mechanism for connection, which is disadvantageous in terms of cost.

また、元からあるコントローラ14の機能をアタッチメント18により拡張させる場合、コントローラ14自体に、将来の拡張を見据えて接続機構を設けておく必要があり、拡張性に限界がある。そこで本実施の形態では、コントローラ14とアタッチメント18にモーションセンサを設け、その計測値から得られるそれぞれの動きに基づき、両者が結合されているか否かを判定する。 Further, when the function of the original controller 14 is expanded by the attachment 18, it is necessary to provide a connection mechanism in the controller 14 itself in anticipation of future expansion, and the expandability is limited. Therefore, in the present embodiment, motion sensors are provided in the controller 14 and the attachment 18, and it is determined whether or not the two are combined based on the respective movements obtained from the measured values.

すなわち両者の動きが一致していると見なせる所定の条件を満たしたとき、結合していると判定する。これにより電気的な接続が不要になり、例えば面ファスナー、結束バンド、スナップ、ボタン、カバー、ねじ止めなど、複数のデバイスを一つの剛体と見なせる状態が達成できる限り、その結合手段は限定されなくなる。 結果として結合箇所の自由度が上がるため、デザイン的な制約が少なくなるとともに、簡易な接続により低い製造コストで、汎用性、拡張性の高い入力装置を実現できる。 That is, when a predetermined condition that can be regarded as the same movement is satisfied, it is determined that the two movements are combined. This eliminates the need for electrical connections and limits the means of coupling as long as multiple devices can be considered as one rigid body, such as hook-and-loop fasteners, cable ties, snaps, buttons, covers, and screws. .. As a result, the degree of freedom of the connection point is increased, so that design restrictions are reduced, and a highly versatile and expandable input device can be realized at a low manufacturing cost by simple connection.

なお図示する例では、コントローラ14とアタッチメント18の結合を示しているが、結合させるデバイスの種類や数をこれに限る趣旨ではない。すなわち各デバイスがモーションセンサを内蔵し、それぞれを用いて異なる情報を取得できれば、いかなるデバイスを組み合わせても本実施の形態を適用できる。例えばデバイスは、コントローラやマーカのほか、携帯端末やウェアラブルディスプレイなどでもよい。 In the illustrated example, the connection between the controller 14 and the attachment 18 is shown, but the type and number of devices to be combined are not limited to this. That is, as long as each device has a built-in motion sensor and different information can be acquired by using each device, the present embodiment can be applied to any combination of devices. For example, the device may be a controller, a marker, a mobile terminal, a wearable display, or the like.

図2は、本実施の形態を適用できる情報処理システムの構成例を示す。この例は図1で示したように、位置を検出するための機構を持たないコントローラ14に、当該機構を有するアタッチメント18を取り付けることにより、コントローラ14の操作内容とその位置情報とを組み合わせて情報処理に用いることを想定している。これにより、例えば仮想現実においてコントローラ14のボタン押下を銃撃操作に対応づける場合に、銃を撃つタイミングや向きをコントローラ14から、その位置をアタッチメント18から取得することで、仮想世界での銃弾の当たる位置を正確に求める、といったことが可能になる。 FIG. 2 shows a configuration example of an information processing system to which the present embodiment can be applied. In this example, as shown in FIG. 1, by attaching the attachment 18 having the mechanism to the controller 14 which does not have the mechanism for detecting the position, the operation content of the controller 14 and the position information thereof are combined to provide information. It is supposed to be used for processing. As a result, for example, when the button press of the controller 14 corresponds to the shooting operation in the virtual reality, the timing and direction of shooting the gun are acquired from the controller 14, and the position is acquired from the attachment 18, so that the bullet hits in the virtual world. It is possible to find the position accurately.

コントローラ14は、ボタン、キー、ジョイスティック、タッチパッド、カメラ、マイクなど、一般的な入力手段の少なくともいずれかを備えるとともに、モーションセンサを内蔵する。アタッチメント18もモーションセンサを内蔵するとともに、その位置を検出するための機構を有する。例えばアタッチメント18は、所定色あるいは赤外線など、所定の波長帯の光を発光させる機構を有していてもよいし、照射された所定の波長帯の光を反射させる部材を外面に備えていてもよい。 The controller 14 includes at least one of general input means such as a button, a key, a joystick, a touch pad, a camera, and a microphone, and also incorporates a motion sensor. The attachment 18 also has a built-in motion sensor and a mechanism for detecting its position. For example, the attachment 18 may have a mechanism for emitting light in a predetermined wavelength band such as a predetermined color or infrared rays, or may be provided with a member for reflecting the irradiated light in a predetermined wavelength band on the outer surface. Good.

コントローラ14やアタッチメント18が内蔵するモーションセンサは、加速度、角速度、姿勢など、物体の動きや状態を表す物理値の少なくともいずれかを計測するセンサであり、IMU(Inertial Measurement Unit)センサ、加速度センサ、ジャイロセンサ、地磁気センサなど実用化されているセンサのいずれかまたは組み合わせたものでよい。情報処理システム8は、アタッチメント18を結合させたコントローラ14のほか、実空間を撮影する撮像装置12、コントローラ14に対するユーザ操作とアタッチメント18の位置に基づき情報処理を行う情報処理装置10、情報処理の結果として得られた画像を表示する表示装置16を含む。 The motion sensor built into the controller 14 and the attachment 18 is a sensor that measures at least one of physical values representing the movement or state of an object such as acceleration, angular velocity, and attitude, and is an IMU (Inertial Measurement Unit) sensor, an acceleration sensor, or the like. Any or combination of practical sensors such as a gyro sensor and a geomagnetic sensor may be used. The information processing system 8 includes a controller 14 to which an attachment 18 is coupled, an image pickup device 12 that captures a real space, an information processing device 10 that performs information processing based on a user operation with respect to the controller 14 and the position of the attachment 18, and information processing. A display device 16 for displaying the resulting image is included.

情報処理装置10とその他の装置とはそれぞれ、ケーブルで接続されても、Bluetooth(登録商標)など既知の無線通信技術により接続されてもよい。撮像装置12は、アタッチメント18の実空間での位置を取得するための画像を、所定のフレームレートで撮影する。したがって撮像装置12は、少なくともアタッチメント18からの光(赤外光や可視光を含む光)を検出するCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサを備える。撮像装置12は、図示するように2つのカメラを既知の間隔で左右に配置したステレオカメラであってもよい。 The information processing device 10 and other devices may be connected by a cable or may be connected by a known wireless communication technology such as Bluetooth (registered trademark). The image pickup apparatus 12 captures an image for acquiring the position of the attachment 18 in the real space at a predetermined frame rate. Therefore, the imaging device 12 includes at least a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor that detect light from the attachment 18 (light including infrared light and visible light). The image pickup apparatus 12 may be a stereo camera in which two cameras are arranged on the left and right at a known interval as shown in the figure.

この場合、情報処理装置10は、左右の視点から同時に撮影された画像から、アタッチメント18の像をそれぞれ抽出し、その位置的な関係から、アタッチメント18の3次元空間での位置を求められる。ステレオ画像を用いて、三角測量の原理により対象物の位置情報を得る手法は広く知られている。ただし撮像装置12を単眼カメラとしても、アタッチメント18の発光部分あるいは反射部分のサイズや、発光部分が複数ある場合はその幾何的な位置関係が既知であれば、その像の大きさから3次元空間での位置を求められる。 In this case, the information processing apparatus 10 extracts the images of the attachment 18 from the images taken at the same time from the left and right viewpoints, and obtains the position of the attachment 18 in the three-dimensional space from the positional relationship. A method of obtaining position information of an object by the principle of triangulation using a stereo image is widely known. However, even if the image pickup device 12 is a monocular camera, if the size of the light emitting portion or the reflecting portion of the attachment 18 and the geometrical positional relationship of the plurality of light emitting portions are known, the three-dimensional space is determined from the size of the image. You will be asked for your position.

あるいは撮像装置12を、赤外線などの参照光を対象物に照射してその反射光を撮影するデプスカメラとすることで、情報処理装置10はTOF(Time of Flight)によりアタッチメント18の位置を求めてもよい。変形例として、撮像装置12を磁場や超音波の測定器とし、アタッチメント18により発生させた磁場や超音波を計測することにより、情報処理装置10がその位置を特定してもよい。あるいはアタッチメント18自体にカメラを設け、情報処理装置10は、その撮影画像からSLAM(Simultaneous Localization and Mapping)など既存の技術により位置を推定してもよい。 Alternatively, by using the image pickup device 12 as a depth camera that irradiates an object with reference light such as infrared rays and captures the reflected light, the information processing device 10 obtains the position of the attachment 18 by TOF (Time of Flight). May be good. As a modification, the information processing device 10 may specify the position by using the image pickup device 12 as a measuring device for a magnetic field or an ultrasonic wave and measuring the magnetic field or the ultrasonic wave generated by the attachment 18. Alternatively, a camera may be provided on the attachment 18 itself, and the information processing apparatus 10 may estimate the position from the captured image by an existing technique such as SLAM (Simultaneous Localization and Mapping).

すなわちアタッチメント18の位置取得には、実用化されている技術のいずれを採用してもよく、それによってアタッチメント18の構成も様々であってよい。情報処理装置10は、コントローラ14に対するユーザ操作が生じる都度、その内容をコントローラ14から取得する。情報処理装置10はさらに上述のとおり、撮像装置12から撮影画像のデータを取得し、それを解析してアタッチメント18の実空間での位置を所定のレートで取得する。 That is, any of the practical techniques may be adopted for the position acquisition of the attachment 18, and the configuration of the attachment 18 may be various depending on the technique. The information processing device 10 acquires the contents from the controller 14 each time a user operation is performed on the controller 14. As described above, the information processing device 10 further acquires the data of the captured image from the image pickup device 12, analyzes the data, and acquires the position of the attachment 18 in the real space at a predetermined rate.

そして情報処理装置10は、コントローラ14に対するユーザ操作と、アタッチメント18の位置の情報とを組み合わせ、それに応じて情報処理を進捗させたうえ、その結果を表す画像や音声を表示装置16に出力する。ここで、アタッチメント18の位置をコントローラ14の位置と見なしてよいかを決定するため、情報処理装置10は初期処理として、モーションセンサの計測値の波形に基づき、コントローラ14とアタッチメント18の結合を判定する。 Then, the information processing device 10 combines the user operation with respect to the controller 14 and the information on the position of the attachment 18, advances the information processing accordingly, and outputs an image or sound representing the result to the display device 16. Here, in order to determine whether the position of the attachment 18 may be regarded as the position of the controller 14, the information processing device 10 determines the connection between the controller 14 and the attachment 18 as an initial process based on the waveform of the measured value of the motion sensor. To do.

コントローラ14から得られるユーザ操作とアタッチメント18の位置情報とを組み合わせて情報処理装置10が実施する情報処理の内容は特に限定されない。また本実施の形態は、結合されていると判定されたデバイスがそれぞれ有する機能を組み合わせて情報処理を行う限りにおいて、組み合わせて用いる情報の種類も限定されない。当然、モーションセンサの計測値は、結合を判定するのに用いるのみならず、その後の情報処理にも用いてよい。 The content of information processing performed by the information processing apparatus 10 by combining the user operation obtained from the controller 14 and the position information of the attachment 18 is not particularly limited. Further, in the present embodiment, the types of information used in combination are not limited as long as the functions of the devices determined to be combined are combined to perform information processing. Naturally, the measured value of the motion sensor may be used not only for determining the coupling but also for the subsequent information processing.

表示装置16は、一般的なディスプレイおよびスピーカーを有するテレビジョン受像器などでよく、例えば液晶テレビ、有機ELテレビ、プラズマテレビ、PCディスプレイなどでよい。あるいは表示装置16は、ユーザ6が頭部に装着することにより眼前に画像を表示させるヘッドマウントディスプレイでもよい。このとき左目用、右目用の画像を、表示画面を2分割してなる左右の領域にそれぞれ表示させることにより、画像を立体視させることができる。 The display device 16 may be a television receiver having a general display and a speaker, and may be, for example, a liquid crystal television, an organic EL television, a plasma television, a PC display, or the like. Alternatively, the display device 16 may be a head-mounted display that the user 6 wears on the head to display an image in front of the eyes. At this time, the images for the left eye and the image for the right eye can be viewed stereoscopically by displaying the images for the left eye and the right eye in the left and right regions formed by dividing the display screen into two.

ヘッドマウントディスプレイにIMUセンサなどのモーションセンサを搭載し、情報処理装置10がその計測値を取得することにより、ヘッドマントディスプレイの姿勢に対応する視野で仮想世界の表示画像を生成すれば、仮想現実を実現できる。なお情報処理システム8を構成する各装置の形態は図示するものに限らない。 If a motion sensor such as an IMU sensor is mounted on the head-mounted display and the information processing device 10 acquires the measured value to generate a display image of the virtual world in a field of view corresponding to the posture of the head-mounted display, virtual reality Can be realized. The form of each device constituting the information processing system 8 is not limited to the one shown in the figure.

例えばコントローラ14と表示装置16を合わせてヘッドマントディスプレイとし、当該ヘッドマウントディスプレイにアタッチメント18を取り付ける構成としてもよい。これにより、位置を特定する機構を持たないヘッドマウントディスプレイであっても、ユーザの動きを追跡できる。結果として情報処理装置10は、当該ヘッドマウントディスプレイが内蔵するIMUセンサによって特定されるユーザの顔の向きと、ユーザの位置とに基づき表示画像の視野を決定し、より臨場感のある画像表現を実現できる。 For example, the controller 14 and the display device 16 may be combined to form a head-mounted display, and the attachment 18 may be attached to the head-mounted display. As a result, the movement of the user can be tracked even if the head-mounted display does not have a mechanism for specifying the position. As a result, the information processing device 10 determines the field of view of the displayed image based on the orientation of the user's face specified by the IMU sensor built in the head-mounted display and the position of the user, and provides a more realistic image expression. realizable.

図3は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、外部装置へデータを出力する出力部36、外部装置からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。 FIG. 3 shows the internal circuit configuration of the information processing device 10. The information processing device 10 includes a CPU (Central Processing Unit) 22, a GPU (Graphics Processing Unit) 24, and a main memory 26. Each of these parts is connected to each other via a bus 30. An input / output interface 28 is further connected to the bus 30. The input / output interface 28 includes a communication unit 32 composed of a peripheral device interface such as USB or IEEE1394, a wired or wireless LAN network interface, a storage unit 34 such as a hard disk drive or a non-volatile memory, and an output for outputting data to an external device. A unit 36, an input unit 38 for inputting data from an external device, and a recording medium driving unit 40 for driving a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected.

CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、出力部36から表示装置16等へデータを出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。 The CPU 22 controls the entire information processing apparatus 10 by executing the operating system stored in the storage unit 34. The CPU 22 also executes various programs read from the removable recording medium, loaded into the main memory 26, or downloaded via the communication unit 32. The GPU 24 has a geometry engine function and a rendering processor function, performs drawing processing according to a drawing command from the CPU 22, and outputs data from the output unit 36 to the display device 16 and the like. The main memory 26 is composed of a RAM (Random Access Memory) and stores programs and data required for processing.

図4は情報処理装置10、コントローラ14、およびアタッチメント18の機能ブロックの構成を示している。同図に示す各機能ブロックは、ハードウェア的には、CPU、GPU、各種メモリ、マイクロプロセッサ、各種素子、操作手段などで実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 4 shows the configuration of the functional blocks of the information processing device 10, the controller 14, and the attachment 18. Each functional block shown in the figure can be realized by a CPU, GPU, various memories, microprocessors, various elements, operating means, etc. in terms of hardware, and data loaded into memory from a recording medium, etc. in terms of software. It is realized by a program that exerts various functions such as input function, data retention function, image processing function, and communication function. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.

コントローラ14およびアタッチメント18は上述のとおり、モーションセンサ41、44をそれぞれ備える。図示するコントローラ14はさらに、ユーザが操作するための操作ボタン42を、アタッチメント18は所定の波長帯の光を発生させる発光部46を備えるが、上述のとおり両者が異なる機能を実現できれば、モーションセンサ以外の機能ブロックは特に限定されない。情報処理装置10は、コントローラ14、アタッチメント18、および撮像装置12から、それぞれデータを取得する入力情報取得部50、コントローラ14とアタッチメント18の結合を判定する結合判定部54、ユーザ操作に応じて情報処理を行う情報処理部58、および、画像や音声のデータを出力する出力部60を備える。 As described above, the controller 14 and the attachment 18 include motion sensors 41 and 44, respectively. The controller 14 shown in the figure further includes an operation button 42 for the user to operate, and the attachment 18 includes a light emitting unit 46 that generates light in a predetermined wavelength band. However, if both can realize different functions as described above, a motion sensor Functional blocks other than are not particularly limited. The information processing device 10 includes an input information acquisition unit 50 that acquires data from the controller 14, the attachment 18, and the image pickup device 12, a combination determination unit 54 that determines the connection between the controller 14 and the attachment 18, and information according to a user operation. It includes an information processing unit 58 that performs processing, and an output unit 60 that outputs image and audio data.

入力情報取得部50は、計測値取得部52を備え、コントローラ14およびアタッチメント18から、それぞれが備えるモーションセンサ41、44によって所定のレートで計測された計測値を順次取得する。計測値取得部52は、少なくともコントローラ14およびアタッチメント18の結合を判定するフェーズにおいては、モーションセンサ41、44の計測値を所定期間、取得し続ける。ここで計測値とは代表的には、3軸の加速度、角速度の少なくともどちらかを表す数値である。 The input information acquisition unit 50 includes a measurement value acquisition unit 52, and sequentially acquires measurement values measured at a predetermined rate from the controller 14 and the attachment 18 by the motion sensors 41 and 44 provided therein. The measurement value acquisition unit 52 continues to acquire the measurement values of the motion sensors 41 and 44 for a predetermined period of time, at least in the phase of determining the coupling between the controller 14 and the attachment 18. Here, the measured value is typically a numerical value representing at least one of three-axis acceleration and angular velocity.

ただしコントローラ14とアタッチメント18の動きを表す同じパラメータであれば、その種類は限定されない。ゲームなどの運用時には、入力情報取得部50は、必要に応じてモーションセンサ41、またはモーションセンサ44の計測値を取得するほか、撮像装置12が撮影した画像を所定のフレームレートで順次取得したり、操作ボタン42に対するユーザ操作の内容を、コントローラ14から随時取得したりする。 However, the types are not limited as long as they have the same parameters representing the movements of the controller 14 and the attachment 18. During operation of a game or the like, the input information acquisition unit 50 acquires the measured values of the motion sensor 41 or the motion sensor 44 as needed, and sequentially acquires the images captured by the image pickup device 12 at a predetermined frame rate. , The content of the user operation for the operation button 42 is acquired from the controller 14 at any time.

結合判定部54は、モーションセンサ41、44の計測値の時間変化を表す波形を比較することにより、両者の結合を判定する。ここで「結合の判定」とは、あるコントローラ14とあるアタッチメント18が結合しているか否かの判定、あるコントローラ14に結合しているアタッチメント18の識別、および、複数存在する、コントローラ14とアタッチメント18からなる結合体の識別、の少なくともいずれかである。 The coupling determination unit 54 determines the coupling between the two by comparing the waveforms representing the time changes of the measured values of the motion sensors 41 and 44. Here, "determination of coupling" means determining whether or not a controller 14 and an attachment 18 are coupled, identifying an attachment 18 coupled to a controller 14, and a plurality of controllers 14 and attachments. At least one of the identification of the conjugate consisting of 18.

結合判定部54はさらに、ゲームなどの運用時に、バックグラウンドで常時、あるいは所定のタイミングで、モーションセンサ41、44の計測値の波形比較を行うことにより、結合していたコントローラ14とアタッチメント18が外れたことを検出してもよい。詳細には結合判定部54は、ユーザ通知部56および波形比較部57を備える。ユーザ通知部56は、コントローラ14に所定の動きを与えるようにユーザに要求する。当該要求は、文字情報、音声情報、画像の少なくともいずれかの形式で、出力部60から表示装置16に出力させる。 Further, the coupling determination unit 54 further compares the waveforms of the measured values of the motion sensors 41 and 44 in the background at all times or at a predetermined timing during the operation of a game or the like, so that the controller 14 and the attachment 18 that have been coupled can be combined. It may be detected that it has come off. Specifically, the combination determination unit 54 includes a user notification unit 56 and a waveform comparison unit 57. The user notification unit 56 requests the user to give the controller 14 a predetermined motion. The request is output from the output unit 60 to the display device 16 in at least one of the forms of character information, voice information, and an image.

例えばユーザ通知部56は、空中で円を描くようにコントローラ14を動かすようユーザに要求する。ユーザがこれを実行すると、コントローラ14には回転運動が与えられるため、モーションセンサ41の計測値が示す波形もそれを表す特有のものとなる。このときアタッチメント18のモーションセンサ44による計測値も同様の波形であれば、両者が結合していると結論できる。なおコントローラ14に所定の動きを与えることにより、他のコントローラ14やアタッチメント18の動きとの判別を明確にしたり、比較する波形の始点を揃えたりでき、結合判定の精度を向上させることができる。 For example, the user notification unit 56 requests the user to move the controller 14 so as to draw a circle in the air. When the user executes this, the controller 14 is given a rotational motion, so that the waveform indicated by the measured value of the motion sensor 41 is also unique to represent it. At this time, if the value measured by the motion sensor 44 of the attachment 18 has the same waveform, it can be concluded that the two are combined. By giving a predetermined motion to the controller 14, it is possible to clarify the distinction from the motion of the other controller 14 and the attachment 18, and to align the start points of the waveforms to be compared, so that the accuracy of the coupling determination can be improved.

一方、他のコントローラ14やアタッチメント18が存在しない場合や、両者の同期が高精度にとれる場合などは、ユーザ通知部56は、ユーザへの要求を省略してもよい。波形比較部57は上述のとおり、モーションセンサ41、44の計測値の時間変化が示す波形を比較し、1つの剛体の動きと見なせる所定の条件を満たしたら、コントローラ14とアタッチメント18の結合を判定する。 On the other hand, when the other controller 14 or the attachment 18 does not exist, or when both can be synchronized with high accuracy, the user notification unit 56 may omit the request to the user. As described above, the waveform comparison unit 57 compares the waveforms indicated by the time changes of the measured values of the motion sensors 41 and 44, and determines the connection between the controller 14 and the attachment 18 when a predetermined condition that can be regarded as the movement of one rigid body is satisfied. To do.

波形比較部57は上述のとおり、ゲームなどの運用時の前処理として、コントローラ14とアタッチメント18の結合を判定する以外に、結合が緩んだり外れたりしたことも波形比較により検出してよい。例えば一旦、アタッチメント18との結合が判定されたコントローラ14をユーザが振り回すなどして結合が緩んだり外れたりすると、アタッチメント18の位置情報がコントローラ14の実際の位置とずれてしまい、情報処理の精度に影響を与えることが考えられる。 As described above, the waveform comparison unit 57 may detect by waveform comparison that the connection between the controller 14 and the attachment 18 is loosened or disconnected as a preprocessing during operation of a game or the like, in addition to determining the connection between the controller 14 and the attachment 18. For example, once the connection is loosened or disconnected by the user swinging the controller 14 determined to be connected to the attachment 18, the position information of the attachment 18 deviates from the actual position of the controller 14, and the accuracy of information processing is high. It is possible to affect the.

そのため波形比較部57は、バックグラウンドで常時、あるいは所定のタイミングで波形を比較することにより、結合が持続しているか否かを監視する。波形に差が生じ、1つの剛体と見なせないことが波形比較部57により判定されたら、ユーザ通知部56は結合が外れたことをユーザに通知する。当該通知も文字情報、音声情報、画像の少なくともいずれかの形式で、出力部60から表示装置16に出力させる。そして波形比較部57は、ユーザがコントローラ14とアタッチメント18の結合状態を改善させた後の波形を再び比較することにより、両者の結合を判定する。 Therefore, the waveform comparison unit 57 monitors whether or not the coupling is sustained by comparing the waveforms in the background at all times or at a predetermined timing. When the waveform comparison unit 57 determines that there is a difference in the waveforms and cannot be regarded as one rigid body, the user notification unit 56 notifies the user that the connection has been broken. The notification is also output from the output unit 60 to the display device 16 in at least one of the forms of text information, voice information, and an image. Then, the waveform comparison unit 57 determines the combination of the controller 14 and the attachment 18 by comparing the waveforms after the user has improved the connection state of the controller 14 and the attachment 18 again.

情報処理部58は、ユーザが指定したゲームなどの情報処理を実施する。情報処理部58はこの際、結合が判定されたコントローラ14とアタッチメント18の組み合わせに係る情報を結合判定部54から取得し、それぞれを介して得られる情報を組み合わせて情報処理に利用する。例えば情報処理部58は、結合が判定されたコントローラ14の識別情報と、アタッチメント18の発光色の情報を結合判定部54から取得する。 The information processing unit 58 performs information processing such as a game specified by the user. At this time, the information processing unit 58 acquires information related to the combination of the controller 14 and the attachment 18 for which the connection is determined from the combination determination unit 54, and combines the information obtained through the information processing unit 58 for information processing. For example, the information processing unit 58 acquires the identification information of the controller 14 whose combination is determined and the information of the emission color of the attachment 18 from the combination determination unit 54.

そして情報処理部58は、当該発光色の像を撮影画像から抽出してアタッチメント18の位置情報を取得するとともに、対応する識別情報を有するコントローラ14に対するユーザ操作の内容やモーションセンサ41の計測値を取得する。そして情報処理部58は、それらの情報を組み合わせ、情報処理の入力値とする。 Then, the information processing unit 58 extracts the image of the emission color from the captured image to acquire the position information of the attachment 18, and also obtains the content of the user operation for the controller 14 having the corresponding identification information and the measured value of the motion sensor 41. get. Then, the information processing unit 58 combines the information and uses it as an input value for information processing.

これにより情報処理部58は、コントローラ14のみでは不定であった位置情報も用いて、仮想現実など、より複雑な情報処理を実施できる。あるいはヘッドマウントディスプレイにアタッチメント18を取り付ける場合、情報処理部58は上述のとおり、ヘッドマウントディスプレイに内蔵されるIMUセンサから得られるユーザの顔の向きと、アタッチメントの位置情報とで決定される視野で、表示画像を生成してもよい。 As a result, the information processing unit 58 can perform more complicated information processing such as virtual reality by using the position information that is undefined only by the controller 14. Alternatively, when the attachment 18 is attached to the head-mounted display, the information processing unit 58 has a field of view determined by the orientation of the user's face obtained from the IMU sensor built in the head-mounted display and the position information of the attachment, as described above. , A display image may be generated.

結合判定部54がコントローラ14とアタッチメント18の結合を判定しない間、および一旦、結合が判定されてもそれが解消されている間は、情報処理部58による処理を停止させてもよい。出力部60は、情報処理部58が実施したゲームなどの情報処理の結果を画像や音声のデータとして取得し、表示装置16に適切なタイミングで出力する。出力部60はまた、ユーザ通知部56からの要求に従い、コントローラ14に所定の動きを与える要求や、結合が外れていることの通知を表す出力データも、表示装置16に出力する。 The processing by the information processing unit 58 may be stopped while the coupling determination unit 54 does not determine the coupling between the controller 14 and the attachment 18, and while the coupling is once determined but resolved. The output unit 60 acquires the result of information processing such as a game executed by the information processing unit 58 as image or audio data, and outputs the result to the display device 16 at an appropriate timing. The output unit 60 also outputs to the display device 16 a request for giving a predetermined motion to the controller 14 and an output data indicating a notification that the coupling is broken, in accordance with the request from the user notification unit 56.

図5は波形比較部57が、モーションセンサ41、44の計測値の波形を比較する処理を説明するための図である。図ではモーションセンサ41、44の計測値として、コントローラ14およびアタッチメント18の加速度の波形64、66を示している。ただし実際の計測値は3次元での値であり、モーションセンサ41、44固有のサンプリングレートで得られる。また計測値は一般に、ダイナミックレンジを所定の階調数で表したデータとして出力されるため、設定されたダイナミックレンジによって出力される数値と実際の加速度との関係が変化する。 FIG. 5 is a diagram for explaining a process in which the waveform comparison unit 57 compares the waveforms of the measured values of the motion sensors 41 and 44. In the figure, the acceleration waveforms 64 and 66 of the controller 14 and the attachment 18 are shown as the measured values of the motion sensors 41 and 44. However, the actual measured value is a three-dimensional value, and is obtained at a sampling rate peculiar to the motion sensors 41 and 44. Further, since the measured value is generally output as data expressing the dynamic range with a predetermined number of gradations, the relationship between the numerical value output by the set dynamic range and the actual acceleration changes.

さらにコントローラ14およびアタッチメント18は、それぞれ固有のクロックで動作している。そのため波形比較部57は例えば、コントローラ14およびアタッチメント18から個別に送信される出力値を、共通の時間軸および加速度の軸にプロットしたうえ適宜補間することにより、図示するように比較可能な波形64、66を得る。例えば波形比較部57は、情報処理装置10からタイムスタンプを伴い送信した信号に対する返信を、受信したときのタイムスタンプとともに、コントローラ14およびアタッチメント18から送信させる。 Further, the controller 14 and the attachment 18 operate with their own clocks. Therefore, for example, the waveform comparison unit 57 plots the output values individually transmitted from the controller 14 and the attachment 18 on a common time axis and acceleration axis and interpolates them appropriately, so that the waveform 64 can be compared as shown in the figure. , 66. For example, the waveform comparison unit 57 causes the controller 14 and the attachment 18 to transmit a reply to a signal transmitted from the information processing device 10 with a time stamp together with the time stamp when the signal is received.

これにより、情報処理装置10とそれぞれのデバイスとの、転送時間を含めたクロックの時間差が取得できるため、2つのモーションセンサ41、44による計測時刻を情報処理装置10内部のクロックでの値に変換すれば、各計測値を共通の時間軸で表せる。また、あらかじめモーションセンサ41、44のダイナミンクレンジを取得しておけば、出力値を加速度に換算して共通の軸で表すことができる。なお2つのモーションセンサ41、44でダイナミックレンジが大きく異なっていると、加速度が大きい場合にどちらか一方のみ出力値が飽和して、正確な波形比較ができない可能性がある As a result, the time difference between the clocks of the information processing device 10 and each device including the transfer time can be acquired, so that the time measured by the two motion sensors 41 and 44 is converted into the value of the clock inside the information processing device 10. Then, each measured value can be represented by a common time axis. Further, if the dynamine cleanliness of the motion sensors 41 and 44 is acquired in advance, the output value can be converted into acceleration and represented by a common axis. If the dynamic ranges of the two motion sensors 41 and 44 are significantly different, the output value of only one of them may be saturated when the acceleration is large, and accurate waveform comparison may not be possible.

したがって好適には、ダイナミックレンジをあらかじめ揃えておく。コントローラ14をヘッドマウントディスプレイとする場合など、最大加速度がそれほど大きくないことが判明している場合は、飽和の可能性が少ないことから、ダイナミックレンジを狭めることにより、加速度の分解能を高めてもよい。さらに上述のとおり、コントローラ14に所定の動きを与えることにより、それまでの動きと顕著に異なる波形が得られれば、比較のための開始点68を明確に揃えることができる。 Therefore, preferably, the dynamic range is prepared in advance. When it is known that the maximum acceleration is not so large, such as when the controller 14 is used as a head-mounted display, the possibility of saturation is low. Therefore, the acceleration resolution may be improved by narrowing the dynamic range. .. Further, as described above, if a predetermined motion is given to the controller 14 to obtain a waveform significantly different from the motion up to that point, the starting points 68 for comparison can be clearly aligned.

そのうえで波形比較部57は例えば、両者の二乗平均平方根誤差がしきい値より小さいときに、コントローラ14とアタッチメント18の結合を判定する。例えば2000Hz程度のサンプリングレートを有するモーションセンサでは、1秒程度で有意な判定が可能である。ただし波形の差が小さい、ひいては類似していることを判定するためのアルゴリズムには様々なものがあり、波形比較部57はそのいずれか、あるいは組み合わせにより判定を行ってよい。例えば波形比較部57は、相互相関係数を求めたり周波数成分を比較したりしてもよい。あるいは波形比較部57は、音声認識などで用いられるDP(Dynamic Programming)マッチングを利用して判定してもよい。 Then, the waveform comparison unit 57 determines, for example, the coupling between the controller 14 and the attachment 18 when the root mean square error of both is smaller than the threshold value. For example, with a motion sensor having a sampling rate of about 2000 Hz, a significant determination can be made in about 1 second. However, there are various algorithms for determining that the difference between the waveforms is small, and thus they are similar, and the waveform comparison unit 57 may make a determination based on any one of them or a combination thereof. For example, the waveform comparison unit 57 may obtain the mutual correlation coefficient or compare the frequency components. Alternatively, the waveform comparison unit 57 may make a determination using DP (Dynamic Programming) matching used in voice recognition or the like.

図6はユーザ通知部56が、コントローラに所定の動きを与えるようユーザに要求する際に表示させる画面の例を示している。要求画面70は、要求する動きを表す図形72と文字情報74を含む。この例では、空中に円を描くようにコントローラ14を動かす要求を想定し、図形72として円状の矢印を、文字情報74として「コントローラで円を描いてください」との文字を示している。ただし与える動きは円に限らず、比較する波形の始点や、その他のコントローラ14やアタッチメント18の動きとの識別が可能な、特有の波形が得られるものであればよい。また要求画面70に示す情報は図示するものに限定されない。 FIG. 6 shows an example of a screen displayed when the user notification unit 56 requests the user to give a predetermined motion to the controller. The request screen 70 includes a graphic 72 representing the requested movement and character information 74. In this example, assuming a request to move the controller 14 so as to draw a circle in the air, a circular arrow is shown as the figure 72, and the character "Please draw a circle with the controller" is shown as the character information 74. However, the motion to be given is not limited to a circle, and any waveform that can be distinguished from the start point of the waveform to be compared and the motion of the controller 14 or the attachment 18 may be obtained. Further, the information shown on the request screen 70 is not limited to the one shown in the figure.

次に、以上の構成によって実現できる情報処理装置10の動作について説明する。図7は、本実施の形態において情報処理装置10がコントローラ14とアタッチメント18に係る情報を組み合わせて情報処理を行う処理手順を示すフローチャートである。このフローチャートは例えば、情報処理装置10とその他の装置との間で通信が確立された状態で、ユーザがコントローラ14などを介して処理の開始を要求することにより開始される。 Next, the operation of the information processing apparatus 10 that can be realized by the above configuration will be described. FIG. 7 is a flowchart showing a processing procedure in which the information processing device 10 performs information processing by combining information related to the controller 14 and the attachment 18 in the present embodiment. This flowchart is started, for example, when a user requests the start of processing via a controller 14 or the like in a state where communication is established between the information processing device 10 and other devices.

すると結合判定部54のユーザ通知部56は、図6で示したような画面を表示装置16に表示させることにより、コントローラ14に所定の動きを与えるようユーザに要求する(S10)。一方、入力情報取得部50の計測値取得部52は、コントローラ14およびアタッチメント18のモーションセンサ41、44から計測値の取得を開始し、結合判定部54の波形比較部57は図5で説明したように、同じ時間軸および計測値の軸にそれらを表すことで波形を取得する(S12)。 Then, the user notification unit 56 of the combination determination unit 54 requests the user to give a predetermined motion to the controller 14 by displaying the screen as shown in FIG. 6 on the display device 16 (S10). On the other hand, the measured value acquisition unit 52 of the input information acquisition unit 50 starts acquiring the measured values from the motion sensors 41 and 44 of the controller 14 and the attachment 18, and the waveform comparison unit 57 of the coupling determination unit 54 has been described with reference to FIG. As described above, the waveform is acquired by representing them on the same time axis and the axis of the measured value (S12).

なお情報処理装置10が、複数のコントローラ14やアタッチメント18と通信を確立している場合は当然、それぞれに対して波形が得られる。計測値取得部52が、計測値とともに送信元のデバイスの識別情報を得ておくことにより、波形比較部57は、各波形がどのコントローラ14やアタッチメント18のものであるかを識別できる。そして波形比較部57は、コントローラ14とアタッチメント18の計測値の波形の差分、あるいは差分を表す指標がしきい値より小さいとき、両者の結合を判定する(S14のY、S16)。 When the information processing device 10 establishes communication with a plurality of controllers 14 and attachments 18, a waveform is naturally obtained for each of them. When the measurement value acquisition unit 52 obtains the identification information of the transmission source device together with the measurement value, the waveform comparison unit 57 can identify which controller 14 or attachment 18 each waveform belongs to. Then, when the difference between the waveforms of the measured values of the controller 14 and the attachment 18 or the index representing the difference is smaller than the threshold value, the waveform comparison unit 57 determines the combination of the two (Y, S16 in S14).

複数のコントローラ14やアタッチメント18が存在する場合、波形比較部57は、波形の差分がしきい値より小さいペアを検出することで、結合しているコントローラ14とアタッチメント18を特定する。なおS14の判定処理は、実質的に波形の差分が基準より小さい(類似性が高い)ことを確認できれば、評価対象のパラメータは上述のとおり限定されない。またS12の波形取得とS14の判定処理は統計的な処理により同時に行うことができる。 When a plurality of controllers 14 and attachments 18 are present, the waveform comparison unit 57 identifies the combined controller 14 and attachment 18 by detecting a pair whose waveform difference is smaller than the threshold value. In the determination process of S14, the parameters to be evaluated are not limited as described above as long as it can be confirmed that the difference between the waveforms is substantially smaller than the reference (high similarity). Further, the waveform acquisition of S12 and the determination process of S14 can be performed at the same time by statistical processing.

いずれにしろ結合判定部54が結合を判定したら、情報処理部58は、コントローラ14を介して得られる情報とアタッチメント18を介して得られる情報とを組み合わせて入力値とすることで、情報処理を進捗させる(S18)。例えば情報処理部58は、コントローラ14の操作ボタン42に対するユーザ操作と、アタッチメント18の発光部46の撮影画像に基づく位置情報を組み合わせ、ゲームに対する入力値とする。さらに情報処理部58は、コントローラ14のモーションセンサ41の計測値を組み合わせて入力値としてもよい。 In any case, when the coupling determination unit 54 determines the coupling, the information processing unit 58 performs information processing by combining the information obtained via the controller 14 and the information obtained via the attachment 18 as an input value. Make progress (S18). For example, the information processing unit 58 combines the user operation with respect to the operation button 42 of the controller 14 and the position information based on the captured image of the light emitting unit 46 of the attachment 18 to be an input value for the game. Further, the information processing unit 58 may combine the measured values of the motion sensor 41 of the controller 14 as input values.

コントローラ14とアタッチメント18の結合を、所定のタイミングにおいてバックグラウンドで確認する場合、情報処理部58がユーザ操作に応じた情報処理を継続する一方、結合判定部54は当該タイミングまで確認を待機する(S20のN,S26のN、S18)。確認のタイミングが到来したら、結合判定部54の波形比較部57は再び、コントローラ14およびアタッチメント18のモーションセンサ41、44の計測値の波形を取得する(S20のY、S12)。 When the connection between the controller 14 and the attachment 18 is confirmed in the background at a predetermined timing, the information processing unit 58 continues the information processing according to the user operation, while the connection determination unit 54 waits for the confirmation until the timing ( N of S20, N of S26, S18). When the confirmation timing arrives, the waveform comparison unit 57 of the coupling determination unit 54 again acquires the waveforms of the measured values of the motion sensors 41 and 44 of the controller 14 and the attachment 18 (Y, S12 of S20).

この際は、コントローラ14と結合しているべきアタッチメント18が限定されるため、比較対象の波形も限定される。したがって情報処理部58における処理はそのまま続行し、波形比較部57はコントローラ14に所定の動きを与えることなく波形比較を行ってもよい。結合が維持されていることが波形比較部57により判定されたら(S14のY、S16)、情報処理部58はそのまま情報処理を継続する(S18)。波形比較部57はその後も、S12〜S16の結合確認を所定のタイミングで実施する(S20のY)。 In this case, since the attachment 18 to be coupled to the controller 14 is limited, the waveform to be compared is also limited. Therefore, the processing in the information processing unit 58 may be continued as it is, and the waveform comparison unit 57 may perform the waveform comparison without giving a predetermined movement to the controller 14. When the waveform comparison unit 57 determines that the coupling is maintained (Y, S16 in S14), the information processing unit 58 continues information processing as it is (S18). After that, the waveform comparison unit 57 confirms the combination of S12 to S16 at a predetermined timing (Y in S20).

情報処理部58による情報処理の開始前、あるいは情報処理の途中で、S14の判定処理において波形の差分がしきい値以上であった場合、波形比較部57は、コントローラ14にアタッチメント18が結合していないことを判定する(S14のN、S22)。すると結合判定部54のユーザ通知部56は、「コントローラにアタッチメントを接続してください」といった文字情報や接続手法を表した画像などを表示装置16に表示させるなどして、結合されていない旨をユーザに通知する(S24)。情報処理部58による情報処理の途中で結合が外れた場合は、情報処理を中断させてもよい。 If the difference between the waveforms is equal to or greater than the threshold value in the determination process of S14 before the start of information processing by the information processing unit 58 or during the information processing, the waveform comparison unit 57 has the attachment 18 coupled to the controller 14. It is determined that this is not the case (N in S14, S22). Then, the user notification unit 56 of the combination determination unit 54 displays character information such as "Please connect the attachment to the controller" or an image showing the connection method on the display device 16 to indicate that the combination is not performed. Notify the user (S24). If the connection is broken during the information processing by the information processing unit 58, the information processing may be interrupted.

この場合も結合判定部54の波形比較部57は再び、コントローラ14およびアタッチメント18のモーションセンサ41、44の計測値の波形を取得し(S12)、結合の有無を判定する(S14)。なおコントローラ14とアタッチメント18の結合状態を改善させたユーザに、コントローラ14を介してその旨を入力させ、波形比較部57はそれを契機としてS12からの判定処理を実施してもよい。その直前にユーザ通知部56は、S10の処理を実施し、コントローラ14に所定の動きを与えるようにしてもよい。 In this case as well, the waveform comparison unit 57 of the coupling determination unit 54 again acquires the waveforms of the measured values of the motion sensors 41 and 44 of the controller 14 and the attachment 18 (S12), and determines the presence or absence of coupling (S14). The user who has improved the coupling state of the controller 14 and the attachment 18 may be made to input to that effect via the controller 14, and the waveform comparison unit 57 may perform the determination process from S12 as an opportunity. Immediately before that, the user notification unit 56 may perform the process of S10 to give the controller 14 a predetermined motion.

そして結合が判定されたら(S14のY、S16)、情報処理部58はコントローラ14およびアタッチメント18を介して得られる情報を組み合わせて入力値とし、情報処理を再開させる(S18)。依然として結合されていないことが判定されたら(S14のN、S22)、ユーザ通知部56がその旨を再びユーザに通知する(S24)。ユーザによる終了要求などにより処理を終了させる必要が生じない間は、以上の処理を継続させ(S26のN)、処理を終了させる必要が生じたら全処理を終了させる(S26のY)。 Then, when the combination is determined (Y, S16 in S14), the information processing unit 58 combines the information obtained via the controller 14 and the attachment 18 as an input value, and restarts the information processing (S18). If it is determined that they are not yet combined (N, S22 in S14), the user notification unit 56 notifies the user again to that effect (S24). While the process does not need to be terminated due to a user's end request or the like, the above process is continued (N in S26), and when it becomes necessary to terminate the process, all the processes are terminated (Y in S26).

図8は、情報処理部58が入力値として利用できる情報を例示している。同図は、3つのコントローラa、b、cと、3つのアタッチメントA、B、Cを利用して、3人のプレイヤがゲームを行う場合に得られる情報を示している。初期状態において情報処理装置10は、どのコントローラ14にどのアタッチメント18が結合しているかがわからないため、結合判定部54が上述のとおり波形を比較して結合関係を取得する。 FIG. 8 illustrates information that can be used as an input value by the information processing unit 58. The figure shows information obtained when three players play a game using three controllers a, b, and c and three attachments A, B, and C. Since the information processing apparatus 10 does not know which attachment 18 is coupled to which controller 14 in the initial state, the coupling determination unit 54 compares the waveforms as described above and acquires the coupling relationship.

コントローラ14に所定の動きを与えて結合を判定する場合は、1つずつ動かすことで順番に判定してもよいし、異なる動きを同時に与え並列に判定してもよい。これにより図示する例では、コントローラAとアタッチメントb、コントローラBとアタッチメントc、コントローラCとアタッチメントaの結合が判定されたことを、白抜き矢印で示している。情報処理部58は当該情報を結合判定部54から取得し、内部のメモリに保持しておくことにより、それぞれのデバイスに係る情報を組み合わせて利用する。 When the controller 14 is given a predetermined motion to determine the coupling, the controller 14 may be moved one by one to determine the coupling in order, or different motions may be applied at the same time to determine the coupling in parallel. In the illustrated example, it is indicated by a white arrow that the connection between the controller A and the attachment b, the controller B and the attachment c, and the controller C and the attachment a is determined. The information processing unit 58 acquires the information from the combination determination unit 54 and holds it in the internal memory, so that the information related to each device is used in combination.

例えば情報処理部58は図の上段に示すように、撮像装置12が撮影した画像からアタッチメントa、b、cの像を抽出することにより、色などに基づきそれぞれの位置情報を追跡し続ける。ただし実際には、位置情報は3次元空間での位置座標として得られる。一方、情報処理部58は、コントローラA、B、Cに対し各プレイヤが操作ボタン42を押下したタイミングや、押下されたボタンの種類を検知する。図の下段には、それぞれの操作タイミングを丸印で示している。 For example, as shown in the upper part of the figure, the information processing unit 58 extracts the images of the attachments a, b, and c from the image taken by the image pickup apparatus 12, and keeps tracking the respective position information based on the color and the like. However, in reality, the position information is obtained as the position coordinates in the three-dimensional space. On the other hand, the information processing unit 58 detects the timing at which each player presses the operation button 42 with respect to the controllers A, B, and C, and the type of the pressed button. At the bottom of the figure, each operation timing is indicated by a circle.

すると情報処理部58は上向き矢印で示すように、コントローラAが操作された時刻t1におけるアタッチメントbの位置を特定することにより、当該位置と操作されたボタンとの組み合わせにより、ゲームに対する操作内容を決定する。同様に、コントローラBが操作された時刻t2におけるアタッチメントcの位置や、コントローラCが操作された時刻t3におけるアタッチメントaの位置を特定し、それらを組み合わせることにより、各プレイヤのゲームに対する操作内容を決定する。 Then, as shown by the upward arrow, the information processing unit 58 specifies the position of the attachment b at the time t1 when the controller A is operated, and determines the operation content for the game by the combination of the position and the operated button. To do. Similarly, the position of the attachment c at the time t2 when the controller B is operated and the position of the attachment a at the time t3 when the controller C is operated are specified, and by combining them, the operation content for each player's game is determined. To do.

これにより、位置情報が求められないコントローラ14であっても、アタッチメント18を簡易な手段で結合させるのみで、位置情報が必要な情報処理を行えるようになる。なお上述のとおり、複数のデバイスを結合させることにより組み合わせる情報は図示するものに限らない。また3つ以上のデバイスを結合させることにより、3つ以上の情報を組み合わせて入力値としてもよい。 As a result, even if the controller 14 does not require the position information, the information processing that requires the position information can be performed only by connecting the attachment 18 by a simple means. As described above, the information to be combined by combining a plurality of devices is not limited to the one shown in the figure. Further, by combining three or more devices, three or more pieces of information may be combined and used as an input value.

以上述べた本実施の形態によれば、個々のデバイスが内蔵するモーションセンサの計測値の波形を比較することにより、デバイス同士の結合を判定する。これにより、電気的な接続がなくとも、両者を介して個別に得られる情報を組み合わせて、情報処理の入力値とすることができる。結果として、入力装置の機能の拡張を低いコストで実現できる。また両者が固定できれば接続手段は限定されないため、接続するための機構を設けておく必要がなく、デザインに対する制約が増えることがない。 According to the present embodiment described above, the coupling between the devices is determined by comparing the waveforms of the measured values of the motion sensors built in the individual devices. As a result, even if there is no electrical connection, information obtained individually via both can be combined and used as an input value for information processing. As a result, the function expansion of the input device can be realized at low cost. Further, if both can be fixed, the connecting means is not limited, so that it is not necessary to provide a mechanism for connecting, and there is no increase in restrictions on the design.

利き手などによってアタッチメントの取り付け位置や形状を異ならせる必要もないため、同じ形状のコントローラおよびアタッチメントとしても適用範囲が広く、製造コストをより軽減させることができる。さらに実施する情報処理に応じて様々なアタッチメントを準備し、付け替えて使用すれば、元のコントローラには必要最低限の機能を設けておけばよくなるため、将来の拡張を見越した設計をする必要がない。さらにユーザそれぞれの事情に合わせ柔軟にカスタマイズができるため、購入費用を抑えられるほか、デバイスの軽量化、小型化も実現できる。 Since it is not necessary to change the attachment position and shape depending on the dominant hand or the like, the range of application is wide even for controllers and attachments having the same shape, and the manufacturing cost can be further reduced. Furthermore, if various attachments are prepared and replaced according to the information processing to be performed, the original controller only needs to have the minimum necessary functions, so it is necessary to design in anticipation of future expansion. Absent. Furthermore, since it can be flexibly customized according to each user's circumstances, the purchase cost can be suppressed, and the device can be made lighter and smaller.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. The above-described embodiment is an example, and it is understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. is there.

8 情報処理システム、 10 情報処理装置、 12 撮像装置、 14 コントローラ、 16 表示装置、 18 アタッチメント、 41 モーションセンサ、 42 操作ボタン、 44 モーションセンサ、 46 発光部、 50 入力情報取得部、 52 計測値取得部、 54 結合判定部、 56 ユーザ通知部、 57 波形比較部、 58 情報処理部、 60 出力部。 8 Information processing system, 10 Information processing device, 12 Imaging device, 14 Controller, 16 Display device, 18 Attachment, 41 Motion sensor, 42 Operation button, 44 Motion sensor, 46 Light emitting unit, 50 Input information acquisition unit, 52 Measurement value acquisition Unit, 54 coupling judgment unit, 56 user notification unit, 57 waveform comparison unit, 58 information processing unit, 60 output unit.

Claims (11)

複数のデバイスがそれぞれ備えるモーションセンサの計測値を取得する計測値取得部と、
前記計測値の時間変化を表す波形を比較することにより、前記複数のデバイスが結合していることを判定する結合判定部と、
結合している複数のデバイスのそれぞれを介して得られる情報の組み合わせに基づき情報処理を実施する情報処理部と、
を備えたことを特徴とする情報処理装置。
A measurement value acquisition unit that acquires the measurement values of motion sensors provided by multiple devices,
A coupling determination unit that determines that the plurality of devices are coupled by comparing waveforms representing changes in the measured values over time.
An information processing unit that performs information processing based on a combination of information obtained via each of a plurality of connected devices,
An information processing device characterized by being equipped with.
前記結合判定部は、前記波形の差分を表す指標がしきい値より小さいとき、前記複数のデバイスが結合していることを判定することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the coupling determination unit determines that the plurality of devices are coupled when the index representing the difference between the waveforms is smaller than the threshold value. 前記情報処理部は、結合している複数のデバイスのうち一のデバイスにより取得される位置を、他のデバイスの位置と見なすことにより、少なくとも位置情報を他の情報と組み合わせて情報処理の入力値とすることを特徴とする請求項1または2に記載の情報処理装置。 The information processing unit considers the position acquired by one of the plurality of coupled devices to be the position of the other device, so that at least the position information is combined with the other information to input the information processing. The information processing apparatus according to claim 1 or 2. 前記他のデバイスは入力装置であり、前記情報処理部は、前記入力装置に対するユーザ操作の内容と、前記位置情報を組み合わせて入力値とすることを特徴とする請求項3に記載の情報処理装置。 The information processing device according to claim 3, wherein the other device is an input device, and the information processing unit combines the content of a user operation with respect to the input device and the position information into an input value. .. 前記他のデバイスはヘッドマウントディスプレイであり、前記情報処理部は、前記ヘッドマウントディスプレイが備えるモーションセンサによって特定されるユーザの顔の向きと、前記位置情報とに基づき、表示画像の視野を決定することを特徴とする請求項3に記載の情報処理装置。 The other device is a head-mounted display, and the information processing unit determines the field of view of the displayed image based on the orientation of the user's face specified by the motion sensor included in the head-mounted display and the position information. The information processing apparatus according to claim 3, wherein the information processing device is characterized by the above. 前記結合判定部は、前記デバイスに所定の動きを与えるようにユーザに要求し、当該所定の動きが生じている期間における前記波形を比較することを特徴とする請求項1から5のいずれかに記載の情報処理装置。 The coupling determination unit requests the user to give a predetermined motion to the device, and compares the waveforms during the period in which the predetermined motion occurs according to any one of claims 1 to 5. The information processing device described. 前記情報処理部は、前記結合判定部による判定結果に基づき、複数存在する、前記デバイスの結合体を識別したうえ、当該結合体ごとに、得られる情報を組み合わせることを特徴とする請求項1から6のいずれかに記載の情報処理装置。 From claim 1, the information processing unit identifies a plurality of coupled devices of the device based on the determination result by the combined determination unit, and combines the obtained information for each coupled body. The information processing apparatus according to any one of 6. 前記結合判定部は、前記情報処理部による情報処理のバックグラウンドで前記波形の比較を実施することにより、前記複数のデバイスの結合が外れたことを検出し、その旨をユーザに通知することを特徴とする請求項1から7のいずれかに記載の情報処理装置。 The coupling determination unit detects that the plurality of devices are disconnected by comparing the waveforms in the background of information processing by the information processing unit, and notifies the user to that effect. The information processing apparatus according to any one of claims 1 to 7. モーションセンサを備えた複数のデバイスと、
当該デバイスの結合体を介して入力値を取得し、それに応じた情報処理を実施する情報処理装置と、を備え、
前記情報処理装置は、
複数のデバイスがそれぞれ備えるモーションセンサの計測値を取得する計測値取得部と、
前記計測値の時間変化を表す波形を比較することにより、前記複数のデバイスが結合していることを判定する結合判定部と、
結合している複数のデバイスのそれぞれを介して得られる情報の組み合わせに基づき情報処理を実施する情報処理部と、
を備えたことを特徴とする情報処理システム。
With multiple devices with motion sensors
It is equipped with an information processing device that acquires an input value via a combination of the devices and performs information processing according to the input value.
The information processing device
A measurement value acquisition unit that acquires the measurement values of motion sensors provided by multiple devices,
A coupling determination unit that determines that the plurality of devices are coupled by comparing waveforms representing changes in the measured values over time.
An information processing unit that performs information processing based on a combination of information obtained via each of a plurality of connected devices,
An information processing system characterized by being equipped with.
複数のデバイスがそれぞれ備えるモーションセンサの計測値を取得するステップと、
前記計測値の時間変化を表す波形を比較することにより、前記複数のデバイスが結合していることを判定するステップと、
結合している複数のデバイスのそれぞれを介して得られる情報の組み合わせに基づき情報処理を実施するステップと、
を含むことを特徴とする、情報処理装置による情報処理方法。
Steps to acquire the measured values of the motion sensors provided by multiple devices,
A step of determining that the plurality of devices are coupled by comparing waveforms representing the time change of the measured value, and a step of determining that the plurality of devices are coupled.
Steps to perform information processing based on a combination of information obtained through each of multiple connected devices,
An information processing method by an information processing device, which comprises.
複数のデバイスがそれぞれ備えるモーションセンサの計測値を取得する機能と、
前記計測値の時間変化を表す波形を比較することにより、前記複数のデバイスが結合していることを判定する機能と、
結合している複数のデバイスのそれぞれを介して得られる情報の組み合わせに基づき情報処理を実施する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function to acquire the measurement value of the motion sensor provided by multiple devices, and
A function for determining that the plurality of devices are connected by comparing waveforms representing changes in the measured values over time, and a function for determining that the plurality of devices are connected.
A function that performs information processing based on a combination of information obtained through each of multiple connected devices, and
A computer program characterized by realizing a computer.
JP2019190246A 2019-10-17 2019-10-17 Information processing device, information processing system, and information processing method Pending JP2021064332A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019190246A JP2021064332A (en) 2019-10-17 2019-10-17 Information processing device, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019190246A JP2021064332A (en) 2019-10-17 2019-10-17 Information processing device, information processing system, and information processing method

Publications (1)

Publication Number Publication Date
JP2021064332A true JP2021064332A (en) 2021-04-22

Family

ID=75486386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190246A Pending JP2021064332A (en) 2019-10-17 2019-10-17 Information processing device, information processing system, and information processing method

Country Status (1)

Country Link
JP (1) JP2021064332A (en)

Similar Documents

Publication Publication Date Title
US8933931B2 (en) Distributed asynchronous localization and mapping for augmented reality
CN112513711B (en) Method and system for resolving hemispherical ambiguities using position vectors
JP5547720B2 (en) Determination of controller's three-dimensional position using image analysis and ultrasonic communication
JP4883460B2 (en) Method and system enabling depth and direction detection when interfacing with a computer program
EP2595402B1 (en) System for controlling light enabled devices
JP5376874B2 (en) Image processing program and image processing apparatus
US20220283646A1 (en) Hand gesture-based emojis
US20120198353A1 (en) Transferring data using a physical gesture
JP6465672B2 (en) Information processing apparatus and information processing method
JPWO2016038953A1 (en) DETECTING DEVICE, DETECTING METHOD, CONTROL DEVICE, AND CONTROL METHOD
US20140009384A1 (en) Methods and systems for determining location of handheld device within 3d environment
JP7546116B2 (en) Systems and methods for augmented reality - Patents.com
JP2007236697A (en) Image processor and image processing program
US20140045593A1 (en) Virtual joint orientation in virtual skeleton
US20140173524A1 (en) Target and press natural user input
US20180373414A1 (en) Method for communicating via virtual space, program for executing the method on computer, and information processing apparatus for executing the program
WO2014075026A1 (en) Remote control using depth camera
CN109844600A (en) Information processing equipment, information processing method and program
JP6494305B2 (en) Information processing apparatus, display apparatus, and information processing method
CN110152293A (en) Manipulate the localization method of object and the localization method and device of device, game object
EP4252064A1 (en) Image based finger tracking plus controller tracking
WO2018196221A1 (en) Interaction method, device and system
JP2021064332A (en) Information processing device, information processing system, and information processing method