JP2016194798A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2016194798A
JP2016194798A JP2015074157A JP2015074157A JP2016194798A JP 2016194798 A JP2016194798 A JP 2016194798A JP 2015074157 A JP2015074157 A JP 2015074157A JP 2015074157 A JP2015074157 A JP 2015074157A JP 2016194798 A JP2016194798 A JP 2016194798A
Authority
JP
Japan
Prior art keywords
information
information processing
sensor
processing apparatus
preparation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015074157A
Other languages
Japanese (ja)
Inventor
清士 吉川
Kiyoshi Yoshikawa
清士 吉川
大久保 厚志
Atsushi Okubo
厚志 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015074157A priority Critical patent/JP2016194798A/en
Priority to PCT/JP2016/051222 priority patent/WO2016157938A1/en
Priority to US15/560,005 priority patent/US10359837B2/en
Priority to EP16771824.6A priority patent/EP3279768A4/en
Priority to CN201680017783.1A priority patent/CN107407968B/en
Publication of JP2016194798A publication Critical patent/JP2016194798A/en
Priority to US16/406,320 priority patent/US10572003B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, an information processing method, and a program which can improve user convenience in the case where a sensor is used for sensing a predetermined region of space.SOLUTION: Provided is an information processing device equipped with a processing unit which performs processing to generate preparatory information on the basis of first output information about a first object as obtained by a sensor for sensing a predetermined region of real space, and on the basis of second output information about a second object as obtained by a device carried by a user, wherein the preparatory information is used to generate operational information on the basis of third output information obtained by the sensor.SELECTED DRAWING: Figure 12

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。   The present disclosure relates to an information processing apparatus, an information processing method, and a program.

カメラ間の位置関係のキャリブレーションを行う技術が開発されている。発光球体をキャリブレーション治具として用いてF(Fundamental)行列を算出することによって、カメラ間の位置関係のキャリブレーションを行う技術としては、例えば下記の特許文献1に記載の技術が挙げられる。   A technique for calibrating the positional relationship between cameras has been developed. As a technique for calibrating the positional relationship between cameras by calculating an F (Fundamental) matrix using a light emitting sphere as a calibration jig, for example, a technique described in Patent Document 1 below can be cited.

特開2009−071844号公報JP 2009-071844 A

例えば、ユーザなどのオブジェクトの動きの認識結果に基づいて、アプリケーションの実行などの操作を可能とするシステムでは、実空間の所定の範囲をセンシングするセンサ、すなわち、オブジェクトの動きを認識することが可能なセンサ(認識機器)のキャリブレーションをより正確に行うことが、操作感を向上させる上で重要となる。   For example, in a system that enables operations such as application execution based on the recognition result of the movement of an object such as a user, a sensor that senses a predetermined range in real space, that is, the movement of the object can be recognized In order to improve the operational feeling, it is important to calibrate the correct sensor (recognition device) more accurately.

センサのキャリブレーションは、例えば、特許文献1に記載の発光球体や、キャリブレーションボードなどの専用のキャリブレーション治具を用いることなどによって、実現することが可能である。ここで、例えば、新たなセンサが追加された場合や、キャリブレーション済みのセンサが移動した場合など、環境が変化した場合には、センサのキャリブレーションを再度行うことが望ましい。しかしながら、上記のようにキャリブレーションボードなどの専用のキャリブレーション治具がなければセンサのキャリブレーションを行うことができない場合には、再度のセンサのキャリブレーションを、容易に行うことができない恐れがある。   Sensor calibration can be realized, for example, by using a light emitting sphere described in Patent Document 1 or a dedicated calibration jig such as a calibration board. Here, for example, when a new sensor is added or a calibrated sensor moves, or when the environment changes, it is desirable to calibrate the sensor again. However, if the sensor cannot be calibrated without a dedicated calibration jig such as a calibration board as described above, the sensor may not be easily calibrated again. .

本開示では、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。   The present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of improving user convenience when a sensor that senses a predetermined range of space is used. .

本開示によれば、実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う処理部を備え、
上記準備情報は、上記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置が提供される。
According to the present disclosure, the first output information related to the first target acquired from the sensor that senses a predetermined range of the real space and the second related to the second target acquired from the device carried by the user. And a processing unit that performs processing for generating preparation information based on the output information of
An information processing apparatus is provided in which the preparation information is used to generate operation information based on third output information acquired from the sensor.

また、本開示によれば、実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップを有し、上記準備情報は、上記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置により実行される情報処理方法が提供される。   Moreover, according to this indication, it is related with the 1st output information regarding the 1st object acquired from the sensor which senses the predetermined range of real space, and the 2nd object acquired from the apparatus carried by the user. A step of generating preparation information based on the second output information, and the preparation information is used to generate operation information based on the third output information acquired from the sensor. An information processing method executed by the information processing apparatus is provided.

また、本開示によれば、実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップをコンピュータに実行させ、上記準備情報は、上記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、プログラム。   Moreover, according to this indication, it is related with the 1st output information regarding the 1st object acquired from the sensor which senses the predetermined range of real space, and the 2nd object acquired from the apparatus carried by the user. In order to cause the computer to execute a step of generating preparation information based on the second output information, and the preparation information generates operation information based on the third output information acquired from the sensor A program used for

本開示によれば、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。   According to the present disclosure, when a sensor that senses a predetermined range of space is used, it is possible to improve user convenience.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握されうる他の効果が奏されてもよい。   Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.

本実施形態に係る情報処理方法の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the information processing method which concerns on this embodiment. 本実施形態に係る情報処理方法の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the information processing method which concerns on this embodiment. 本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the process which concerns on the information processing method which concerns on this embodiment. 本実施形態に係る対象世界モデルを示すデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data which show the object world model which concerns on this embodiment. 本実施形態に係る対象世界モデルを示すデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data which show the object world model which concerns on this embodiment. 本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the process which concerns on the information processing method which concerns on this embodiment. 本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the process which concerns on the information processing method which concerns on this embodiment. 本実施形態に係る対象世界モデルを示すデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data which show the object world model which concerns on this embodiment. 本実施形態に係る情報処理方法に係る処理の一例を示す流れ図である。It is a flowchart which shows an example of the process which concerns on the information processing method which concerns on this embodiment. 本実施形態に係る情報処理方法が適用可能なユースケースの一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the use case which can apply the information processing method which concerns on this embodiment. 本実施形態に係る情報処理方法が適用可能なユースケースの他の例を説明するための説明図である。It is explanatory drawing for demonstrating the other example of the use case which can apply the information processing method which concerns on this embodiment. 本実施形態に係る情報処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the information processing apparatus which concerns on this embodiment. 本実施形態に係る情報処理装置のハードウェア構成の一例を示す説明図である。It is explanatory drawing which shows an example of the hardware constitutions of the information processing apparatus which concerns on this embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、以下では、下記に示す順序で説明を行う。
1.本実施形態に係る情報処理方法
2.本実施形態に係る情報処理装置
3.本実施形態に係るプログラム
In the following, description will be given in the following order.
1. 1. Information processing method according to this embodiment 2. Information processing apparatus according to this embodiment Program according to this embodiment

(本実施形態に係る情報処理方法)
本実施形態に係る情報処理装置の構成について説明する前に、まず、本実施形態に係る情報処理方法について説明する。以下では、本実施形態に係る情報処理方法に係る処理を、本実施形態に係る情報処理装置が行う場合を例に挙げて、本実施形態に係る情報処理方法について説明する。
(Information processing method according to this embodiment)
Before describing the configuration of the information processing apparatus according to the present embodiment, first, the information processing method according to the present embodiment will be described. Hereinafter, the information processing method according to the present embodiment will be described by taking as an example the case where the information processing apparatus according to the present embodiment performs the processing according to the information processing method according to the present embodiment.

[1]本実施形態に係る情報処理方法の概要
ユーザの手や腕などの動きの認識結果に基づいて、アプリケーションの実行などの操作を可能とするシステムでは、UX(User Experience)を向上させるために、実空間の所定の範囲をセンシングするセンサが、空間内に配置される。
[1] Outline of Information Processing Method According to the Present Embodiment In a system that enables operations such as application execution based on the recognition result of the movement of the user's hand, arm, etc., in order to improve UX (User Experience) In addition, a sensor for sensing a predetermined range in the real space is disposed in the space.

ここで、上記のようなシステムを用いるユーザのUXを向上させるための一の方法としては、センサの検出精度をより高めることが挙げられる。また、センサの検出精度をより高めるための一の方法としては、例えば、センサが新たに設置された場合や、センサが設置されている位置が移動した場合などにおいて、センサのキャリブレーションを行うことが挙げられる。   Here, as one method for improving the user's UX using the system as described above, the detection accuracy of the sensor can be further increased. In addition, as one method for improving the detection accuracy of the sensor, for example, when the sensor is newly installed or when the position where the sensor is installed is moved, the sensor is calibrated. Is mentioned.

センサのキャリブレーションは、例えば、特許文献1に記載の発光球体や、キャリブレーションボードなどの専用のキャリブレーション治具を用いることなどによって、実現することが可能である。   Sensor calibration can be realized, for example, by using a light emitting sphere described in Patent Document 1 or a dedicated calibration jig such as a calibration board.

しかしながら、例えば、センサが新たに設置されるごとや、センサが設置されている位置が移動したごとなど、センサのキャリブレーションを行うことが望ましい事態が生じるごとに、上記のような専用のキャリブレーション治具を用いたセンサのキャリブレーションが行われる場合には、ユーザに過度の負担をかける恐れがある。また、センサのキャリブレーションを行うことが望ましい事態が生じるごとに、上記のような専用のキャリブレーション治具を用いたセンサのキャリブレーションが行われる場合には、専用のキャリブレーション治具がなければセンサのキャリブレーションを行うことができないので、再度のセンサのキャリブレーションを、容易に行うことができない恐れがある。   However, each time a new sensor is installed, or every time it is desirable to calibrate the sensor, such as every time the position where the sensor is installed, the dedicated calibration as described above occurs. When calibration of a sensor using a jig is performed, there is a risk of placing an excessive burden on the user. In addition, if the sensor calibration using the dedicated calibration jig as described above is performed every time it is desirable to calibrate the sensor, there is no dedicated calibration jig. Since the sensor cannot be calibrated, there is a possibility that the sensor cannot be easily calibrated again.

そこで、本実施形態に係る情報処理装置は、実空間の所定の範囲をセンシングするセンサから取得される出力情報と、ユーザにより携帯されている装置(以下、「携帯されている装置」と示す場合がある。)から取得される出力情報とを利用して、当該センサのキャリブレーションを行う。   Therefore, the information processing apparatus according to the present embodiment indicates output information acquired from a sensor that senses a predetermined range in real space and a device that is carried by the user (hereinafter referred to as “portable device”). The sensor is calibrated using the output information obtained from (2).

より具体的には、本実施形態に係る情報処理装置は、センサから取得される第1の対象に関する出力情報と、携帯されている装置から取得される第2の対象に関する出力情報とを利用して、当該センサのキャリブレーションを行う。   More specifically, the information processing apparatus according to the present embodiment uses output information related to the first target acquired from the sensor and output information related to the second target acquired from the portable device. Then, the sensor is calibrated.

ここで、第1の対象とは、センサから取得される出力情報に基づき検出される対象である。本実施形態に係る第1の対象としては、例えば、上記携帯されている装置のユーザの手や腕など、本実施形態に係るセンサによって検出することが可能な任意の対象が挙げられる。   Here, the first target is a target detected based on output information acquired from the sensor. Examples of the first target according to the present embodiment include any target that can be detected by the sensor according to the present embodiment, such as the hand and arm of the user of the portable device.

また、第2の対象とは、携帯されている装置から取得される出力情報に基づき検出される対象である。第2の対象の一例については、後述する。   The second target is a target that is detected based on output information acquired from a portable device. An example of the second target will be described later.

本実施形態に係る情報処理装置は、例えば、第1の対象が動いたときに第2の対象も対応して動くなど、第1の対象と第2の対象とが関連する対象である場合に、センサから取得される第1の対象に関する出力情報と、携帯されている装置から取得される第2の対象に関する出力情報とを利用して、当該センサのキャリブレーションを行う。本実施形態に係る情報処理装置における、第1の対象と第2の対象とが関連する対象であるかを判定する処理の一例については、後述する。   The information processing apparatus according to the present embodiment, for example, when the first target and the second target are related targets, such as when the first target moves, the second target also moves correspondingly. The sensor is calibrated using the output information related to the first target acquired from the sensor and the output information related to the second target acquired from the portable device. An example of processing for determining whether the first target and the second target are related in the information processing apparatus according to the present embodiment will be described later.

以下では、センサから取得される第1の対象に関する出力情報を「第1の出力情報」と示し、携帯されている装置から取得される第2の対象に関する出力情報を「第2の出力情報」と示す。   In the following, the output information related to the first target acquired from the sensor will be referred to as “first output information”, and the output information related to the second target acquired from the portable device will be referred to as “second output information”. It shows.

本実施形態に係るセンサとしては、例えば、ステレオイメージセンサを構成するイメージセンサなどの画像センサや、TOF(Time-Of-Flight)方式などの任意の方式のデプスセンサが挙げられる。また、本実施形態に係るセンサは、例えば、空間をセンシング範囲とし、空間内におけるジェスチャの認識に用いることが可能な出力情報を出力することが可能な、任意のセンサであってもよい。つまり、本実施形態に係るセンサは、例えば、ユーザの操作指示をセンシングするためのセンサである。以下で示すユースケースでは、本実施形態に係るセンサがステレオイメージセンサを構成する画像センサである場合を、例に挙げる。   Examples of the sensor according to the present embodiment include an image sensor such as an image sensor constituting a stereo image sensor and a depth sensor of an arbitrary system such as a TOF (Time-Of-Flight) system. In addition, the sensor according to the present embodiment may be an arbitrary sensor that can output, for example, output information that can be used for recognition of a gesture in a space with a space as a sensing range. That is, the sensor according to the present embodiment is a sensor for sensing a user operation instruction, for example. In the use case shown below, a case where the sensor according to the present embodiment is an image sensor constituting a stereo image sensor will be described as an example.

本実施形態に係るセンサから取得される出力情報(例えば、第1の出力情報や、後述する第3の出力情報)としては、例えば、撮像された画像データや、デプス値を示すデータなど、センシング範囲内の対象の位置情報を得ることが可能なデータが挙げられる。   As output information (for example, first output information or third output information to be described later) acquired from the sensor according to the present embodiment, sensing such as captured image data or data indicating a depth value, for example. Data that can obtain position information of an object within a range is included.

また、本実施形態に係る携帯されている装置としては、例えば、ユーザの身体に装着して用いられるウェアラブル装置や、ユーザが手に持って用いる装置、ユーザが身に着けている鞄や衣服などに収められている装置など、ユーザが直接的または間接的に身に付けている、任意の装置が挙げられる。本実施形態に係るウェアラブル装置としては、例えば、“時計型の装置”や“指輪型、ブレスレット型、ネイル型などのアクセサリ型の装置”のような手または腕に装着される装置や、“眼鏡型の装置”、“服型、靴型、帽子型の装置”などが挙げられる。   Moreover, as a portable device according to the present embodiment, for example, a wearable device used by being worn on the user's body, a device used by the user to hold in hand, a bag or clothes worn by the user, etc. And any device that the user wears directly or indirectly. Examples of the wearable device according to the present embodiment include a device worn on the hand or arm, such as a “watch-type device” or an “accessory-type device such as a ring type, bracelet type, or nail type”, or “glasses”. Type device "," cloth type, shoe type, hat type device "and the like.

本実施形態に係る携帯されている装置から取得される第2の出力情報としては、例えば下記の(a)〜(c)に示す対象の検出結果を得ることが可能なデータが挙げられる。   As 2nd output information acquired from the portable apparatus which concerns on this embodiment, the data which can obtain the detection result of the object shown to the following (a)-(c), for example are mentioned.

(a)携帯されている装置の移動量に関する検出結果(過去、現在の動きに対応する検出結果)
携帯されている装置の移動量に関する検出結果としては、例えば、移動量ベクトルが挙げられる。
(A) Detection result regarding the amount of movement of the portable device (detection result corresponding to past and present movement)
As a detection result related to the movement amount of the portable device, for example, a movement amount vector can be cited.

上記(a)に係る携帯されている装置から取得される第2の出力情報としては、例えば、本実施形態に係る携帯されている装置が備えている携帯されている装置の動きを検出することが可能な任意のモーションセンサ(例えば加速度センサやジャイロセンサなど)の検出値を示すデータや、携帯されている装置に接続されている外部のセンサの検出値を示すデータなど、携帯されている装置の移動量ベクトルを算出することが可能な任意のデータが挙げられる。また、上記(a)に係る携帯されている装置から取得される第2の出力情報は、携帯されている装置の移動量ベクトルを示すデータであってもよい。   As 2nd output information acquired from the portable apparatus which concerns on said (a), detecting the movement of the portable apparatus with which the portable apparatus which concerns on this embodiment is equipped, for example Such as data indicating the detection value of an arbitrary motion sensor (for example, an acceleration sensor, a gyro sensor, etc.) capable of recording, or data indicating the detection value of an external sensor connected to the portable device. Arbitrary data that can be used to calculate the movement amount vector of the. Further, the second output information acquired from the portable device according to (a) may be data indicating a movement amount vector of the portable device.

上記(a)に係る第2の対象としては、例えば、上記携帯されている装置のユーザの手や腕など、モーションセンサなどによって検出することが可能な任意の対象が挙げられる。   Examples of the second object according to (a) include any object that can be detected by a motion sensor or the like, such as a user's hand or arm of the user of the portable device.

(b)携帯されている装置を所持しているユーザの行動を予測することが可能な検出結果(未来の動きに対応する検出結果)
携帯されている装置を所持しているユーザ(以下、単に「ユーザ」と示す場合がある。)の行動を予測することが可能な検出結果としては、例えば、ユーザが注目している空間座標が挙げられる。ユーザが指差し動作などの何らかの動作を行う場合には、ユーザが操作目標に対して視線を向ける場合が多い。よって、ユーザが注目している空間座標を検出することによって、携帯されている装置を所持しているユーザの行動を予測することが可能となる。
(B) Detection result capable of predicting the behavior of a user carrying a portable device (detection result corresponding to future movement)
As a detection result capable of predicting the behavior of a user carrying a portable device (hereinafter, simply referred to as “user”), for example, spatial coordinates focused by the user are Can be mentioned. When a user performs some operation such as a pointing operation, the user often turns his gaze toward the operation target. Therefore, it is possible to predict the behavior of the user who owns the portable device by detecting the spatial coordinates that the user is paying attention to.

上記(b)に係る携帯されている装置から取得される第2の出力情報としては、例えば、画像センサなどのユーザの視線を特定する、または推定することが可能な任意のセンサの検出値を示すデータ(例えば、ユーザが注目している座標を示すデータなど)が挙げられる。また、上記(b)に係る携帯されている装置から取得される第2の出力情報には、例えば、ユーザの顔の動きを検出するジャイロセンサの検出値など、ユーザの視線の推定精度をより高めることが可能な値を示すデータが含まれていてもよい。   As 2nd output information acquired from the portable apparatus which concerns on said (b), the detection value of the arbitrary sensors which can pinpoint a user's eyes | visual_axis, such as an image sensor, or can estimate, for example Data to be indicated (for example, data indicating coordinates that the user is paying attention to). In addition, the second output information acquired from the portable device according to the above (b) includes, for example, more accurate estimation of the user's line of sight, such as a detection value of a gyro sensor that detects the movement of the user's face. Data indicating a value that can be increased may be included.

上記(b)に係る第2の対象としては、例えば、ユーザが注目している空間座標が挙げられる。   As a 2nd object which concerns on said (b), the spatial coordinate which the user is paying attention is mentioned, for example.

(c)携帯されている装置の移動量に関する検出結果、およびユーザの行動を予測することが可能な検出結果
本実施形態に係る携帯されている装置から取得される第2の出力情報に基づく第2の対象の検出結果は、上記(a)に示す携帯されている装置の移動量に関する検出結果、および上記(b)に示すユーザの行動を予測することが可能な検出結果であってもよい。
(C) The detection result regarding the amount of movement of the portable device and the detection result capable of predicting the behavior of the user The second based on the second output information acquired from the portable device according to the present embodiment The detection result of the second target may be the detection result related to the movement amount of the portable device shown in (a) above and the detection result capable of predicting the user behavior shown in (b) above. .

図1、図2は、本実施形態に係る情報処理方法の概要を説明するための説明図である。図1は、本実施形態に係る情報処理方法に係る処理を行う情報処理装置100を含む、本実施形態に係る情報処理システムの一例を示している。また、図2は、本実施形態に係る情報処理システムが適用されるユースケースの一例を示している。具体的には、図2は、ユーザが、UI(User Interface)が表示されるスクリーンSに対して、指差し動作などの身体を利用した操作を行い、UIを操作するユースケースを示している。   1 and 2 are explanatory diagrams for explaining an overview of the information processing method according to the present embodiment. FIG. 1 shows an example of an information processing system according to the present embodiment including an information processing apparatus 100 that performs processing according to the information processing method according to the present embodiment. FIG. 2 shows an example of a use case to which the information processing system according to this embodiment is applied. Specifically, FIG. 2 shows a use case in which a user performs an operation using the body such as a pointing operation on a screen S on which a UI (User Interface) is displayed, and operates the UI. .

本実施形態に係る情報処理システムは、例えば、情報処理装置100と、センサ200と、携帯されている装置300とを有する。   The information processing system according to the present embodiment includes, for example, an information processing apparatus 100, a sensor 200, and a portable apparatus 300.

なお、図1では、1つのセンサと1つの携帯されている装置とを示しているが、本実施形態に係る情報処理システムには、センサおよび携帯されている装置の一方または双方が、複数含まれていてもよい。以下では、本実施形態に係る情報処理システムに含まれる複数のセンサを総称して、または、本実施形態に係る情報処理システムに含まれるセンサの1つを指して、「センサ200」と示す場合がある。また、以下では、本実施形態に係る情報処理システムに含まれる複数の携帯されている装置を総称して、または、本実施形態に係る情報処理システムに含まれる携帯されている装置の1つを指して、「携帯されている装置300」と示す場合がある。   Although FIG. 1 shows one sensor and one portable device, the information processing system according to the present embodiment includes a plurality of one or both of the sensor and the portable device. It may be. Hereinafter, a case where a plurality of sensors included in the information processing system according to the present embodiment is generically referred to or one of the sensors included in the information processing system according to the present embodiment is indicated as “sensor 200”. There is. In the following, a plurality of portable devices included in the information processing system according to the present embodiment will be collectively referred to, or one of the portable devices included in the information processing system according to the present embodiment will be described. It may be indicated as “portable device 300”.

また、本実施形態に係る情報処理システムでは、例えば、情報処理装置100とセンサ200とが一体の装置であってもよい。以下では、情報処理装置100とセンサ200とが、図1に示すように、別体の装置である場合を例に挙げる。   In the information processing system according to the present embodiment, for example, the information processing apparatus 100 and the sensor 200 may be an integrated apparatus. Hereinafter, a case where the information processing apparatus 100 and the sensor 200 are separate apparatuses as illustrated in FIG. 1 will be described as an example.

情報処理装置100は、センサ200から取得される第1の出力情報と、携帯されている装置300から取得される第2の出力情報とに基づいて、準備情報を生成する処理を行う。   The information processing apparatus 100 performs processing for generating preparation information based on the first output information acquired from the sensor 200 and the second output information acquired from the portable apparatus 300.

本実施形態に係る準備情報は、例えば、センサと所定の座標系との対応づけを制御するための情報(データ)である。具体的には、本実施形態に係る準備情報は、センサの出力情報に基づいて得られる対象の位置情報を、所定の座標系における座標値へ変換する処理に利用される情報である。   The preparation information according to the present embodiment is information (data) for controlling the association between the sensor and a predetermined coordinate system, for example. Specifically, the preparation information according to the present embodiment is information used for processing for converting target position information obtained based on sensor output information into coordinate values in a predetermined coordinate system.

ここで、上記位置情報が変換された所定の座標系における座標値は、例えば、UIが表示されるスクリーンSに対する、指差し動作などの身体を利用した操作の検出に用いられる。つまり、本実施形態に係る準備情報とは、例えば、センサから取得される出力情報に基づいて操作情報を生成するために使われる情報であるといえる。以下では、センサから取得される出力情報のうち、例えば上記のように対象の位置情報を得るために用いられる出力情報(操作情報を得るために用いられる出力情報)を、準備情報を生成する処理に用いられる第1の出力情報と区別して、「第3の出力情報」と示す。   Here, the coordinate value in the predetermined coordinate system in which the position information is converted is used, for example, to detect an operation using the body such as a pointing operation on the screen S on which the UI is displayed. That is, it can be said that the preparation information according to the present embodiment is information used for generating operation information based on output information acquired from a sensor, for example. Below, among the output information acquired from a sensor, the process which produces | generates preparation information for the output information (output information used in order to obtain operation information) used in order to acquire the positional information on object as mentioned above, for example The third output information is distinguished from the first output information used in the above.

なお、以下では、説明の便宜上、第1の出力情報と第3の出力情報とを分けて記載するが、本実施形態に係る第3の出力情報は、本実施形態に係る第1の出力情報の役目を果たすことができ、また、本実施形態に係る第1の出力情報は、本実施形態に係る第3の出力情報の役目を果たすことができる。   In the following, for convenience of explanation, the first output information and the third output information are described separately, but the third output information according to the present embodiment is the first output information according to the present embodiment. In addition, the first output information according to the present embodiment can serve as the third output information according to the present embodiment.

本実施形態に係る所定の座標系としては、例えば、図2に示すスクリーンSの任意の位置を原点とする空間座標系(以下、「スクリーン座標系」と示す場合がある。)が挙げられる。ここで、図2に示すスクリーンSには、センサ200A、200B(センサ200の一例)の第3の出力情報に基づいて操作される操作対象(例えば、UIに係るアイコンなど)が表示される表示画面である。つまり、スクリーン座標系は、センサ200の第1の出力情報に基づいて操作される操作対象が表示される表示画面に関連付けられた座標系であるといえる。   As the predetermined coordinate system according to the present embodiment, for example, a spatial coordinate system having an origin at an arbitrary position of the screen S shown in FIG. 2 (hereinafter, sometimes referred to as “screen coordinate system”) may be mentioned. Here, on the screen S shown in FIG. 2, a display in which an operation target (for example, an icon related to a UI) operated based on the third output information of the sensors 200 </ b> A and 200 </ b> B (an example of the sensor 200) is displayed. It is a screen. That is, it can be said that the screen coordinate system is a coordinate system associated with a display screen on which an operation target operated based on the first output information of the sensor 200 is displayed.

なお、本実施形態に係る所定の座標系は、上記スクリーン座標系に限られず、空間における位置を表すことが可能な任意の位置を原点とする空間座標系が挙げられる。つまり、空間における位置は、所定の座標系の原点を基準とした絶対位置を示す座標で表すことが可能である。以下では、本実施形態に係る所定の座標系により表される座標を、「絶対空間座標」と示す場合がある。   The predetermined coordinate system according to the present embodiment is not limited to the screen coordinate system, and includes a spatial coordinate system having an origin at an arbitrary position that can represent a position in space. That is, the position in space can be expressed by coordinates indicating an absolute position with respect to the origin of a predetermined coordinate system. Hereinafter, the coordinates represented by the predetermined coordinate system according to the present embodiment may be referred to as “absolute space coordinates”.

センサ200の第3の出力情報に基づく位置情報としては、例えば、センサ200に対する相対的な空間座標系の座標値で位置が表される座標データが挙げられる。センサ200に対する相対的な空間座標系とは、例えば、センサ200の任意の位置を原点とする空間座標系である。以下では、センサ200に対する相対的な空間座標系における座標を、「相対空間座標」と示す場合がある。   As the position information based on the third output information of the sensor 200, for example, coordinate data in which the position is represented by the coordinate value of the spatial coordinate system relative to the sensor 200 can be cited. The spatial coordinate system relative to the sensor 200 is, for example, a spatial coordinate system having an arbitrary position of the sensor 200 as an origin. Hereinafter, the coordinates in the spatial coordinate system relative to the sensor 200 may be referred to as “relative space coordinates”.

例えば、第3の出力情報が撮像された画像データやデプス値を示すデータである場合、第3の出力情報に基づく位置情報を得る処理は、例えば、情報処理装置100、または、サーバなどの情報処理装置100の外部装置において行われる。情報処理装置100や外部装置は、例えば、第3の出力情報が撮像された画像データやデプス値を示すデータなどから位置情報を得ることが可能な、任意の方法に係る処理によって、位置情報を得る。   For example, when the third output information is captured image data or data indicating a depth value, the process for obtaining position information based on the third output information is, for example, information such as the information processing apparatus 100 or a server. This is performed in an external device of the processing device 100. For example, the information processing apparatus 100 and the external apparatus can obtain position information by processing according to an arbitrary method that can obtain position information from image data obtained by imaging the third output information, data indicating a depth value, or the like. obtain.

本実施形態に係る準備情報は、例えば、特許文献1に記載の発光球体などの専用のキャリブレーション治具を用いて、相対空間座標を絶対空間座標に変換するパラメータを求めることによって、得られる。また、本実施形態に係る準備情報は、本実施形態に係る準備情報を生成する処理によっても得られる。   The preparation information according to the present embodiment is obtained, for example, by obtaining a parameter for converting relative space coordinates to absolute space coordinates using a dedicated calibration jig such as a light emitting sphere described in Patent Document 1. The preparation information according to the present embodiment can also be obtained by processing for generating preparation information according to the present embodiment.

本実施形態に係る準備情報を生成する処理とは、例えば、上記のような、第3の出力情報に基づいて所定の座標系における所定の座標値を算出するために利用する情報である準備情報を修正する処理である。本実施形態に係る準備情報を生成する処理が行われることによって、修正後の準備情報が新規に生成されてもよいし、修正する対象の準備情報の内容が上書き更新されてもよい。本実施形態に係る準備情報を生成する処理の具体例については、後述する。   The process of generating the preparation information according to the present embodiment is preparation information that is information used to calculate a predetermined coordinate value in a predetermined coordinate system based on the third output information as described above, for example. Is a process of correcting By performing the process of generating the preparation information according to the present embodiment, the corrected preparation information may be newly generated, or the contents of the preparation information to be corrected may be overwritten and updated. A specific example of processing for generating preparation information according to the present embodiment will be described later.

センサ200は、例えば図2のセンサ200A、200Bに示すように、空間内に設けられる。センサ200は、実空間の所定の範囲をセンシングし、第1の出力情報を、情報処理装置100へ送信する。図2に示すユースケースでは、センサ200A、200Bは、ユーザの身体部分(例えば、腕や、指など)や、ユーザが所持している携帯されている装置300などを、対象として検出する。   The sensor 200 is provided in the space, for example, as shown in the sensors 200A and 200B in FIG. The sensor 200 senses a predetermined range in the real space and transmits the first output information to the information processing apparatus 100. In the use case shown in FIG. 2, the sensors 200 </ b> A and 200 </ b> B detect a user's body part (for example, an arm or a finger) or a device 300 carried by the user as a target.

ここで、センサ200は、例えば、ネットワークを介して(あるいは、直接的に)、無線または有線で、情報処理装置100と通信を行う。本実施形態に係るネットワークとしては、例えば、LAN(Local Area Network)やWAN(Wide Area Network)などの有線ネットワーク、無線LAN(WLAN:Wireless Local Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられる。   Here, the sensor 200 communicates with the information processing apparatus 100 wirelessly or by wire, for example, via a network (or directly). As a network according to the present embodiment, for example, a wired network such as a LAN (Local Area Network) or a WAN (Wide Area Network), a wireless network such as a wireless LAN (WLAN: Wireless Local Area Network), or TCP / IP ( Examples include the Internet using a communication protocol such as Transmission Control Protocol / Internet Protocol.

携帯されている装置300は、例えば図2の携帯されている装置300A、300B、300Cに示すように、ユーザの腕などに身に付けられた状態で用いられる。図2に示すユースケースでは、携帯されている装置300A、300Bから取得される第2の出力情報に基づく移動量ベクトルが、上記(a)に示す携帯されている装置の移動量に関する検出結果に該当する。また、図2に示すユースケースでは、携帯されている装置300Cから取得される第2の出力情報に基づき特定される空間座標が、上記(b)に示すユーザの行動を予測することが可能な検出結果に該当する。   The portable device 300 is used while being worn on a user's arm or the like, for example, as shown in the portable devices 300A, 300B, and 300C of FIG. In the use case shown in FIG. 2, the movement amount vector based on the second output information acquired from the portable devices 300 </ b> A and 300 </ b> B is the detection result related to the movement amount of the portable device shown in (a) above. Applicable. In the use case shown in FIG. 2, the spatial coordinates specified based on the second output information acquired from the portable device 300 </ b> C can predict the user's behavior shown in (b) above. Corresponds to the detection result.

携帯されている装置300は、備えているセンサや接続されている外部のセンサにより検出を行い、検出結果に応じた第2の出力情報を、情報処理装置100へ送信する。携帯されている装置300は、例えば、ネットワークを介して(あるいは、直接的に)、無線または有線で、情報処理装置100と通信を行う。   The portable device 300 performs detection using a sensor provided or a connected external sensor, and transmits second output information corresponding to the detection result to the information processing device 100. The portable device 300 communicates with the information processing device 100 wirelessly or by wire, for example, via a network (or directly).

ここで、携帯されている装置300は、例えば、センサ200が設けられている空間内に存在すると判定された場合に、第2の出力情報を、情報処理装置100へ送信してもよい。携帯されている装置300は、例えば、自装置(携帯されている装置300)の位置が、設定されている領域内に含まれる場合や、センサ200との間で通信が確立された場合に、センサ200が設けられている空間内に存在すると判定する。   Here, the portable device 300 may transmit the second output information to the information processing device 100 when it is determined that the device 300 is present in the space in which the sensor 200 is provided, for example. For example, when the position of the own device (portable device 300) is included in the set area or when communication with the sensor 200 is established, It determines with existing in the space in which the sensor 200 is provided.

上記のように、センサ200が設けられている空間内に存在すると判定された場合に、第2の出力情報を情報処理装置100へ送信することによって、情報処理装置100は、同一の空間内に存在するセンサ200から取得された第1の出力情報と、携帯されている装置300から取得される第2の出力情報とに基づいて、準備情報を修正することができる可能性が高まる。よって、情報処理装置100は、より正確に所定の座標系における座標値を算出することが可能な、準備情報を得ることができる。   As described above, when it is determined that the sensor 200 exists in the space in which the sensor 200 is provided, the information processing apparatus 100 transmits the second output information to the information processing apparatus 100, so that the information processing apparatus 100 is in the same space. There is an increased possibility that the preparation information can be corrected based on the first output information acquired from the existing sensor 200 and the second output information acquired from the portable device 300. Therefore, the information processing apparatus 100 can obtain preparation information that can calculate the coordinate value in the predetermined coordinate system more accurately.

情報処理装置100は、例えば図1に示すように、センサ200から取得された第1の出力情報と、携帯されている装置300から取得される第2の出力情報とに基づいて、準備情報を修正して準備情報を生成する。準備情報を生成する処理により準備情報が生成されることによって、センサ200と所定の座標系との対応付けが制御される。   For example, as illustrated in FIG. 1, the information processing apparatus 100 obtains the preparation information based on the first output information acquired from the sensor 200 and the second output information acquired from the portable apparatus 300. Modify and generate preparation information. By generating the preparation information by the process of generating the preparation information, the association between the sensor 200 and the predetermined coordinate system is controlled.

ここで、本実施形態に係る情報処理方法に係る処理が行われる場合には、センサ200と所定の座標系との対応付けの制御に際して、既存の技術が用いられる場合に必要となる専用のキャリブレーション治具は、必要ない。   Here, when processing related to the information processing method according to the present embodiment is performed, a dedicated calibration required when an existing technique is used for controlling the association between the sensor 200 and a predetermined coordinate system. No need for a calibration jig.

また、本実施形態に係る情報処理方法に係る処理が行われる場合には、新たなセンサが追加されたときや、キャリブレーション済みのセンサが移動したときなど、環境が変化したときにおいても、準備情報が適宜修正されることによって、センサ200のキャリブレーションを行うことが可能である。よって、本実施形態に係る情報処理方法に係る処理が行われる場合には、再度のセンサ200のキャリブレーションを、容易に行うことができる。   In addition, when the processing related to the information processing method according to the present embodiment is performed, even when a new sensor is added or a calibrated sensor moves, the preparation is performed. The sensor 200 can be calibrated by appropriately correcting the information. Therefore, when the process according to the information processing method according to the present embodiment is performed, the calibration of the sensor 200 can be easily performed again.

したがって、本実施形態に係る情報処理方法に係る処理が行われることによって、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。   Therefore, by performing the processing related to the information processing method according to the present embodiment, the convenience of the user can be improved when a sensor that senses a predetermined range of space is used.

[2]本実施形態に係る情報処理方法に係る処理
次に、本実施形態に係る情報処理方法に係る処理について、より具体的に説明する。以下では、本実施形態に係る情報処理方法に係る処理を、図1に示す情報処理装置100が行う場合を例に挙げる。
[2] Processing Related to Information Processing Method According to Present Embodiment Next, processing related to the information processing method according to the present embodiment will be described more specifically. Below, the case where the information processing apparatus 100 shown in FIG. 1 performs the process which concerns on the information processing method which concerns on this embodiment is mentioned as an example.

情報処理装置100は、実空間の所定の範囲をセンシングするセンサ200から取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置300から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う。   The information processing apparatus 100 relates to first output information related to the first target acquired from the sensor 200 that senses a predetermined range in real space, and to a second target acquired from the device 300 carried by the user. Based on the second output information, processing for generating preparation information is performed.

図3は、本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。   FIG. 3 is an explanatory diagram for explaining an example of processing related to the information processing method according to the present embodiment.

情報処理装置100は、例えば、センサ200ごとの対象世界モデルM1、および携帯されている装置300ごとの対象世界モデルM2を用いることによって、センサ200ごとに、準備情報(図3に示すセンサ200A準備情報P)を修正する。   The information processing apparatus 100 uses, for example, the target world model M1 for each sensor 200 and the target world model M2 for each portable apparatus 300, so that the preparation information (sensor 200A preparation shown in FIG. Correct information P).

図4、図5は、本実施形態に係る対象世界モデルを示すデータの一例を示す説明図である。図4は、センサ200ごとの対象世界モデルM1を示すデータの一例を示しており、図5は、携帯されている装置300ごとの対象世界モデルM2を示すデータの一例を示している。   4 and 5 are explanatory diagrams illustrating an example of data indicating the target world model according to the present embodiment. FIG. 4 illustrates an example of data indicating the target world model M1 for each sensor 200, and FIG. 5 illustrates an example of data indicating the target world model M2 for each portable device 300.

対象世界モデルM1とは、例えば、センサ200の第1の出力情報に基づき検出された、空間内の対象(以下、「オブジェクト」と示す。)と、当該オブジェクトの空間座標とが対応付けられて、時系列に保持されるデータモデルである。対象世界モデルM1を示すデータとしては、例えば図4に示すような、センサ200の第1の出力情報に基づき検出されたオブジェクトを示すデータと、当該オブジェクトの相対空間座標とが対応付けられて、時系列に記録されるテーブル(またはデータベース)が挙げられる。   The target world model M1 is, for example, a target in space (hereinafter referred to as “object”) detected based on the first output information of the sensor 200 and the spatial coordinates of the object are associated with each other. This is a data model held in time series. As data indicating the target world model M1, for example, as shown in FIG. 4, data indicating an object detected based on the first output information of the sensor 200 is associated with the relative space coordinates of the object, An example is a table (or database) recorded in time series.

情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づいて、情報処理装置100が備える記憶部(後述する)や、情報処理装置100に接続されている外部の記録媒体などの、記録媒体に記憶されている対象世界モデルM1を示すデータを適宜更新する。なお、上述したように、第1の出力情報に基づき位置情報を得る処理は、情報処理装置100において行われてもよいし、情報処理装置100の外部装置において行われてもよい。   The information processing apparatus 100 is based on, for example, first output information acquired from the sensor 200, and a storage unit (described later) included in the information processing apparatus 100 or an external recording medium connected to the information processing apparatus 100 For example, the data indicating the target world model M1 stored in the recording medium is appropriately updated. Note that, as described above, the process of obtaining the position information based on the first output information may be performed in the information processing apparatus 100 or may be performed in an external apparatus of the information processing apparatus 100.

情報処理装置100は、例えば図4に示すような対象世界モデルM1を示すデータを参照することによって、センサ200の第1の出力情報に基づき検出されたオブジェクトの相対空間座標の変化、すなわち、センサ200からみた当該オブジェクトの動きを、第1の出力情報に基づく第1の対象の検出結果として取得することができる。   The information processing apparatus 100 changes the relative spatial coordinates of the object detected based on the first output information of the sensor 200, for example, by referring to data indicating the target world model M1 as shown in FIG. The movement of the object viewed from 200 can be acquired as the detection result of the first target based on the first output information.

なお、対象世界モデルM1を示すデータは、図4に示す例に限られない。例えば、対象世界モデルM1を示すデータには、センサ200から取得される第1の出力情報に対応する時間を示すデータが、さらに対応付けられていてもよい。センサ200から取得される第1の出力情報に対応する時間としては、例えば、当該第1の出力情報が取得された時刻を示すデータや、当該第1の出力情報のタイムスタンプが示す時刻を示すデータなどが挙げられる。   Note that the data indicating the target world model M1 is not limited to the example shown in FIG. For example, data indicating the time corresponding to the first output information acquired from the sensor 200 may be further associated with the data indicating the target world model M1. The time corresponding to the first output information acquired from the sensor 200 is, for example, data indicating the time when the first output information is acquired or the time indicated by the time stamp of the first output information. Data etc. are mentioned.

また、対象世界モデルM2とは、例えば、携帯されている装置300と、携帯されている装置300から取得される第2の出力情報に基づく第2の対象の検出結果とが対応付けられて、時系列に保持されるデータモデルである。対象世界モデルM2を示すデータとしては、例えば図5に示すような、携帯されている装置300を示すデータと、移動量ベクトル(上記(a)に示す過去、現在の動きに対応する検出結果の一例)と、ユーザが視線を向けることが予測される目標空間座標(上記(b)に示す未来の動きに対応する検出結果の一例)とが対応付けられて、時系列に記録されるテーブル(またはデータベース)が挙げられる。   The target world model M2 is associated with, for example, the portable device 300 and the detection result of the second target based on the second output information acquired from the portable device 300, It is a data model held in time series. The data indicating the target world model M2 includes, for example, data indicating the portable device 300 as shown in FIG. 5 and a movement amount vector (detection results corresponding to past and current movements shown in (a) above). An example) is associated with target space coordinates (an example of a detection result corresponding to a future movement shown in (b) above) that is predicted to be directed by the user, and is recorded in time series ( Or database).

情報処理装置100は、例えば、携帯されている装置300から取得される第2の出力情報に基づいて、情報処理装置100が備える記憶部(後述する)や、情報処理装置100に接続されている外部の記録媒体などの、記録媒体に記憶されている対象世界モデルM2を示すデータを適宜更新する。   The information processing apparatus 100 is connected to a storage unit (described later) included in the information processing apparatus 100 or the information processing apparatus 100 based on, for example, second output information acquired from the portable apparatus 300. Data indicating the target world model M2 stored in the recording medium such as an external recording medium is appropriately updated.

情報処理装置100は、例えば、携帯されている装置300から取得される第2の出力情報に基づき上記(a)に示す検出結果が得られる場合に、図5に示す移動量ベクトルを、対象世界モデルM2を示すデータに記録する。情報処理装置100は、例えば、携帯されている装置300から取得される第2の出力情報に基づいて、移動前の時点におけるオブジェクトの空間座標と、移動後の時点における当該オブジェクトの空間座標とから移動量ベクトルを求める。そして、情報処理装置100は、移動量ベクトルが求められた場合に、移動量ベクトルを、対象世界モデルM2を示すデータに記録する。   For example, when the detection result shown in (a) above is obtained based on the second output information acquired from the portable device 300, the information processing apparatus 100 uses the movement amount vector shown in FIG. Recorded in data indicating the model M2. For example, based on the second output information acquired from the portable device 300, the information processing apparatus 100 uses the spatial coordinates of the object at the time before the movement and the spatial coordinates of the object at the time after the movement. Find the travel vector. Then, when the movement amount vector is obtained, the information processing apparatus 100 records the movement amount vector in data indicating the target world model M2.

また、情報処理装置100は、例えば、携帯されている装置300から取得される第2の出力情報に基づき上記(b)に示す検出結果が得られる場合に、図5に示す目標空間座標を、対象世界モデルM2を示すデータに記録する。ここで、目標空間座標は、例えば、SLAM(Simultaneous Localization and Mapping)などの空間座標を特定することが可能な任意の技術を利用して、特定される。   Further, for example, when the detection result shown in (b) above is obtained based on the second output information acquired from the portable device 300, the information processing device 100 uses the target space coordinates shown in FIG. Record in data indicating the target world model M2. Here, the target spatial coordinates are specified by using any technique capable of specifying the spatial coordinates such as SLAM (Simultaneous Localization and Mapping).

情報処理装置100は、例えば図5に示すような対象世界モデルM2を示すデータを参照することによって、携帯されている装置の移動量に関する検出結果と、予測されるユーザの動きを示す検出結果との一方または双方を、第2の出力情報に基づく第2の対象の検出結果として取得することができる。   The information processing apparatus 100 refers to, for example, data indicating the target world model M2 as illustrated in FIG. 5, and a detection result related to the movement amount of the device being carried and a detection result indicating a predicted user movement One or both of them can be acquired as the detection result of the second object based on the second output information.

なお、対象世界モデルM2を示すデータは、図5に示す例に限られない。   Note that the data indicating the target world model M2 is not limited to the example shown in FIG.

例えば、対象世界モデルM2を示すデータには、携帯されている装置300から取得される第2の出力情報に対応する時間を示すデータが、さらに対応付けられていてもよい。携帯されている装置300から取得される情報に対応する時間としては、例えば、当該第2の出力情報が取得された時刻を示すデータや、当該第2の出力情報のタイムスタンプが示す時刻を示すデータなどが挙げられる。   For example, the data indicating the target world model M2 may be further associated with data indicating the time corresponding to the second output information acquired from the portable device 300. The time corresponding to the information acquired from the portable device 300 is, for example, data indicating the time when the second output information is acquired or the time indicated by the time stamp of the second output information. Data etc. are mentioned.

また、対象世界モデルM2を示すデータには、例えば、目標空間座標(上記(b)に示す検出結果の一例)が含まれていなくてもよい。   Further, the data indicating the target world model M2 may not include, for example, the target space coordinates (an example of the detection result shown in (b) above).

情報処理装置100は、センサ200から取得される第1の出力情報に基づく対象世界モデルM1を示すデータと、携帯されている装置300から取得される第2の出力情報に基づく対象世界モデルM2を示すデータに基づいて、準備情報を修正して準備情報を生成する。より具体的には、情報処理装置100は、例えば、下記の(1)に示す処理〜(3)の処理のいずれかの処理を行うことによって、準備情報を修正する。   The information processing apparatus 100 receives data indicating the target world model M1 based on the first output information acquired from the sensor 200 and the target world model M2 based on the second output information acquired from the portable apparatus 300. Based on the data shown, the preparation information is corrected to generate preparation information. More specifically, the information processing apparatus 100 corrects the preparation information by performing, for example, any one of processes (1) to (3) below.

(1)準備情報を生成する処理の第1の例
情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づく第1の対象の動き情報(第1の対象の検出結果の一例)と、携帯されている装置300から取得される第2の出力情報に基づく第2の対象の動き情報(第2の対象の検出結果の一例)とを比較する。そして、情報処理装置100は、動きの比較結果に基づいて準備情報を修正する。ここで、例えば、第1の対象の動き情報と第2の対象の動き情報との比較が、第1の対象と第2の対象とが関連する対象であるかを判定する処理の一例に該当する。また、動きの比較結果に基づいて準備情報が修正される場合は、例えば、第1の対象の動きに応じて第2の対象が動く場合に該当し、第1の対象と第2の対象とは関連する対象であるといえる。
(1) First Example of Process for Generating Preparation Information The information processing apparatus 100 is configured to detect, for example, first target motion information (first target detection result based on first output information acquired from the sensor 200). And the second target motion information based on the second output information acquired from the portable device 300 (an example of the detection result of the second target). Then, the information processing apparatus 100 corrects the preparation information based on the movement comparison result. Here, for example, the comparison between the motion information of the first target and the motion information of the second target corresponds to an example of a process for determining whether the first target and the second target are related targets. To do. In addition, when the preparation information is corrected based on the movement comparison result, for example, this corresponds to the case where the second object moves according to the movement of the first object, and the first object and the second object Is a related subject.

ここで、本実施形態に係る動き情報としては、例えば、オブジェクトごとの移動量ベクトルが挙げられる。本実施形態に係る移動量ベクトルは、例えば、第1の時点におけるオブジェクトの空間座標と、当該第1の時点よりも後の第2の時点における当該オブジェクトの空間座標とから求めることができる。   Here, as the motion information according to the present embodiment, for example, a movement amount vector for each object may be mentioned. The movement amount vector according to the present embodiment can be obtained from, for example, the spatial coordinates of the object at the first time point and the spatial coordinates of the object at the second time point after the first time point.

情報処理装置100は、例えば、対象世界モデルM1を示すデータ、および対象世界モデルM2を示すデータそれぞれから移動量ベクトルを求める。また、情報処理装置100は、例えば、対応する時点における移動量ベクトルを求めてもよい。本実施形態に係る対応する時点としては、例えば、同一の時点、または、設定されている誤差の範囲内の時点が挙げられる。上記誤差は、例えば、予め設定されている固定値であってもよいし、情報処理装置100のユーザなどの操作によって設定可能な可変値であってもよい。   For example, the information processing apparatus 100 obtains a movement amount vector from each of data indicating the target world model M1 and data indicating the target world model M2. Further, for example, the information processing apparatus 100 may obtain a movement amount vector at a corresponding time point. The corresponding time points according to the present embodiment include, for example, the same time point or a time point within a set error range. The error may be a fixed value set in advance or a variable value that can be set by an operation of the user of the information processing apparatus 100 or the like.

また、情報処理装置100は、例えば、対象世界モデルM1を示すデータ、および対象世界モデルM2を示すデータそれぞれから求められた移動量ベクトルの相関が高いか否かを判定する。ここで、上記移動量ベクトルの相関が高いか否かの判定は、センサ200の検出値と携帯されている装置300の検出値とが同一のオブジェクトの検出結果であるか否かの判定に相当する。   Further, for example, the information processing apparatus 100 determines whether or not the correlation between the movement amount vectors obtained from the data indicating the target world model M1 and the data indicating the target world model M2 is high. Here, the determination as to whether or not the correlation between the movement amount vectors is high corresponds to the determination as to whether or not the detection value of the sensor 200 and the detection value of the portable device 300 are the same object detection result. To do.

情報処理装置100は、例えば、移動量ベクトルの相関係数が設定されている閾値(例えば、0<閾値<1)以上、または、当該相関係数が当該閾値より大きい場合に、対応する時点における移動量ベクトルの相関が高いと判定する。   For example, when the correlation coefficient of the movement amount vector is set to a threshold (for example, 0 <threshold <1) or more, or when the correlation coefficient is larger than the threshold, the information processing apparatus 100 It is determined that the correlation of the movement amount vector is high.

ここで、対応する時点における移動量ベクトルの相関が高い場合の例としては、例えば、下記のような例が挙げられる。
・センサ200の第1の出力情報に基づき検出される第1の対象と、携帯されている装置300の第2の出力情報に基づき検出される第2の対象とが、同一である場合(例えば、センサ200、携帯されている装置300の双方において、ユーザの腕の動きが検出される場合)
・センサ200の第1の出力情報に基づき検出される第1の対象と、携帯されている装置300の第2の出力情報に基づき検出される第2の対象とが、関連する対象である場合(例えば、センサ200がユーザの手のひらを検出し、携帯されている装置300が、ユーザの腕の動きを検出する場合)
Here, as an example of the case where the correlation of the movement amount vector at the corresponding time is high, for example, the following example is given.
When the first target detected based on the first output information of the sensor 200 is the same as the second target detected based on the second output information of the portable device 300 (for example, The movement of the user's arm is detected in both the sensor 200 and the portable device 300)
When the first target detected based on the first output information of the sensor 200 and the second target detected based on the second output information of the portable device 300 are related targets (For example, when the sensor 200 detects the palm of the user and the portable device 300 detects the movement of the user's arm)

情報処理装置100は、例えば、移動量ベクトルの相関が高いと判定された場合に、センサ200から取得される情報に基づく移動量ベクトルと、携帯されている装置300から取得される情報に基づく移動量ベクトルとのズレを修正する修正パラメータ(以下、「第1の修正パラメータ」と示す。)を算出する。   For example, when it is determined that the correlation between the movement amount vectors is high, the information processing apparatus 100 moves based on the movement amount vector based on the information acquired from the sensor 200 and the information acquired from the portable apparatus 300. A correction parameter for correcting the deviation from the quantity vector (hereinafter, referred to as “first correction parameter”) is calculated.

本実施形態に係る第1の修正パラメータは、例えば、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとのズレを修正する修正パラメータを求めることによって得られる。   The first correction parameter according to the present embodiment includes, for example, a movement amount vector based on the first output information acquired from the sensor 200 and a movement based on the second output information acquired from the portable device 300. It is obtained by obtaining a correction parameter for correcting the deviation from the quantity vector.

そして、情報処理装置100は、第1の修正パラメータによって準備情報を修正する。第1の例に係る準備情報を生成する処理における準備情報の修正は、第1の出力情報に基づく第1の対象の位置の位置ずれの修正に該当する。   Then, the information processing apparatus 100 corrects the preparation information with the first correction parameter. The correction of the preparation information in the process of generating the preparation information according to the first example corresponds to the correction of the positional deviation of the position of the first target based on the first output information.

なお、本実施形態に係る第1の修正パラメータは、上記に示す例に限られない。   Note that the first correction parameter according to the present embodiment is not limited to the example described above.

例えば、本実施形態に係る第1の修正パラメータは、センサ200から取得される第1の出力情報に対応する時間と携帯されている装置300から取得される第2の出力情報に対応する時間との時間ずれをさらに修正する修正パラメータであってもよい。   For example, the first correction parameter according to the present embodiment includes a time corresponding to the first output information acquired from the sensor 200 and a time corresponding to the second output information acquired from the portable device 300. It may be a correction parameter for further correcting the time lag.

センサ200から取得される第1の出力情報に対応する時間と携帯されている装置300から取得される第2の出力情報に対応する時間とに時間ずれがある場合には、当該時間ずれに起因して、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとにズレが生じる可能性がある。情報処理装置100は、例えば、時間ずれに対応する修正値によって、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとの一方または双方を修正する。そして、情報処理装置100は、例えば、修正後の移動量ベクトルとのズレを修正する修正パラメータを求めることによって、時間ずれをさらに修正する第1の修正パラメータを取得する。   When there is a time lag between the time corresponding to the first output information acquired from the sensor 200 and the time corresponding to the second output information acquired from the portable device 300, the time lag is caused. Thus, there is a possibility that a shift occurs between the movement amount vector based on the first output information acquired from the sensor 200 and the movement amount vector based on the second output information acquired from the portable device 300. . The information processing apparatus 100 uses, for example, a movement amount vector based on the first output information acquired from the sensor 200 based on the correction value corresponding to the time difference, and the second output information acquired from the portable apparatus 300. One or both of the movement vector based on the correction is corrected. Then, the information processing apparatus 100 obtains a first correction parameter that further corrects the time lag, for example, by obtaining a correction parameter that corrects the deviation from the corrected movement amount vector.

上記のような時間ずれをさらに修正する第1の修正パラメータによって準備情報を修正することによって、情報処理装置100は、第1の出力情報に対応する時間と第2の出力情報に対応する時間との時間ずれがさらに修正される準備情報を得ることができる。   By correcting the preparation information with the first correction parameter that further corrects the time lag as described above, the information processing apparatus 100 has a time corresponding to the first output information and a time corresponding to the second output information. It is possible to obtain preparation information for further correcting the time lag.

情報処理装置100は、例えば上記のように第1の修正パラメータを算出して、準備情報を修正する。なお、本実施形態に係る第1の修正パラメータの算出方法は、上記に限られない。情報処理装置100は、“センサ200から取得される第1の出力情報に基づくオブジェクトの位置と携帯されている装置300から取得される第2の出力情報に基づくオブジェクトの位置との位置ずれ”、または“当該位置ずれ、およびセンサ200から取得される第1の出力情報に対応する時間と携帯されている装置300から取得される第2の出力情報に対応する時間との時間ずれ”を修正する修正パラメータを得ることが可能な任意の方法によって、第1の修正パラメータを算出することが可能である。   The information processing apparatus 100 corrects the preparation information by calculating the first correction parameter as described above, for example. In addition, the calculation method of the 1st correction parameter which concerns on this embodiment is not restricted above. The information processing apparatus 100 is “a positional deviation between the position of the object based on the first output information acquired from the sensor 200 and the position of the object based on the second output information acquired from the portable apparatus 300”, Or, “the time shift between the time corresponding to the positional deviation and the first output information acquired from the sensor 200 and the time corresponding to the second output information acquired from the portable device 300” is corrected. The first correction parameter can be calculated by any method capable of obtaining the correction parameter.

また、情報処理装置100は、例えば、移動量ベクトルの相関が高いと判定されない場合には、準備情報を修正しない。   Further, for example, when it is not determined that the correlation of the movement amount vector is high, the information processing apparatus 100 does not correct the preparation information.

情報処理装置100は、例えば上記のような処理を行うことによって、センサ200から取得される第1の出力情報に基づく第1の対象の動き情報(第1の対象の検出結果の一例)と、携帯されている装置300から取得される第2の出力情報に基づく第2の対象の動き情報(第2の対象の検出結果の一例)と比較結果(動きの比較結果)に基づいて準備情報を修正する。   The information processing apparatus 100 performs, for example, the above-described process, thereby moving the first target motion information (an example of the detection result of the first target) based on the first output information acquired from the sensor 200, Preparation information based on the second target motion information (an example of the detection result of the second target) based on the second output information acquired from the portable device 300 and the comparison result (motion comparison result) Correct it.

また、情報処理装置100は、例えば、算出した第1の修正パラメータを、例えば、記憶部(後述する)などの記録媒体に記録させてもよい。   For example, the information processing apparatus 100 may record the calculated first correction parameter on a recording medium such as a storage unit (described later).

(2)準備情報を生成する処理の第2の例
情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づき特定される空間座標(第1の対象の検出結果の一例)と、携帯されている装置300から取得される第2の出力情報に基づき特定される空間座標(第2の対象の検出結果の一例)とを比較する。そして、情報処理装置100は、空間座標の比較結果に基づいて準備情報を修正する。ここで、例えば、第1の出力情報に基づき特定される空間座標と携帯されている装置300から取得される第2の出力情報に基づき特定される空間座標との比較が、第1の対象と第2の対象とが関連する対象であるかを判定する処理の他の例に該当する。
(2) Second Example of Process for Generating Preparation Information The information processing apparatus 100 is, for example, a spatial coordinate specified based on first output information acquired from the sensor 200 (an example of a first target detection result) ) And the spatial coordinates (an example of the detection result of the second object) specified based on the second output information acquired from the portable device 300. The information processing apparatus 100 corrects the preparation information based on the comparison result of the spatial coordinates. Here, for example, the comparison between the spatial coordinates specified based on the first output information and the spatial coordinates specified based on the second output information acquired from the portable device 300 is the first object. This corresponds to another example of processing for determining whether or not the second target is a related target.

例えば、センサ200から取得される第1の出力情報が空間座標を示す場合には、情報処理装置100は、センサ200から取得される第1の出力情報が示す空間座標を用いる。また、センサ200から取得される第1の出力情報が空間座標を示さない場合には、情報処理装置100は、例えば、SLAMなどの空間座標を特定することが可能な任意の技術を利用して、センサ200から取得される第1の出力情報に基づいて空間座標を特定する。   For example, when the first output information acquired from the sensor 200 indicates spatial coordinates, the information processing apparatus 100 uses the spatial coordinates indicated by the first output information acquired from the sensor 200. In addition, when the first output information acquired from the sensor 200 does not indicate the spatial coordinates, the information processing apparatus 100 uses an arbitrary technique that can specify the spatial coordinates such as SLAM, for example. The spatial coordinates are specified based on the first output information acquired from the sensor 200.

また、情報処理装置100は、例えば、対象世界モデルM2を示すデータから、センサ200から取得される第1の出力情報に対応する目標空間座標を抽出し、抽出された目標空間座標を、携帯されている装置300から取得される第2の出力情報に基づく空間座標とする。ここで、対象世界モデルM2を示すデータから抽出されるセンサ200から取得される第1の出力情報に対応する目標空間座標としては、例えば、センサ200から取得される第1の出力情報に基づく空間座標との距離が、設定されている閾値以下である目標空間座標(または、当該距離が当該閾値より小さい目標空間座標)が挙げられる。   In addition, the information processing apparatus 100 extracts, for example, target space coordinates corresponding to the first output information acquired from the sensor 200 from data indicating the target world model M2, and the extracted target space coordinates are carried around. Space coordinates based on the second output information acquired from the device 300. Here, as the target space coordinates corresponding to the first output information acquired from the sensor 200 extracted from the data indicating the target world model M2, for example, a space based on the first output information acquired from the sensor 200 is used. Target space coordinates (or target space coordinates whose distance is smaller than the threshold value) whose distance from the coordinates is equal to or less than a set threshold value are exemplified.

そして、情報処理装置100は、例えば、目標空間座標と特定された空間座標とのズレを修正する修正パラメータを、第2の修正パラメータとして算出する。また、情報処理装置100は、例えば、目標空間座標と特定された空間座標とのズレが存在しない場合には、第2の修正パラメータを算出しない。ここで、本実施形態に係る第2の修正パラメータは、空間座標の比較結果に基づく準備情報の修正に係る修正パラメータに該当する。   Then, the information processing apparatus 100 calculates, for example, a correction parameter that corrects a deviation between the target space coordinates and the specified spatial coordinates as the second correction parameter. Further, for example, when there is no deviation between the target space coordinates and the specified space coordinates, the information processing apparatus 100 does not calculate the second correction parameter. Here, the second correction parameter according to the present embodiment corresponds to a correction parameter related to correction of the preparation information based on the comparison result of the spatial coordinates.

そして、情報処理装置100は、算出された第2の修正パラメータによって準備情報を修正する。   Then, the information processing apparatus 100 corrects the preparation information with the calculated second correction parameter.

情報処理装置100は、例えば上記のような処理を行うことによって、センサ200から取得される第1の出力情報に基づき特定される空間座標と、携帯されている装置300から取得される第2の出力情報に基づき特定される空間座標との比較結果(空間座標の比較結果)に基づいて準備情報を修正する。   The information processing apparatus 100 performs, for example, the above-described processing, and the spatial coordinates specified based on the first output information acquired from the sensor 200 and the second acquired from the portable apparatus 300. The preparation information is corrected based on the comparison result (spatial coordinate comparison result) with the spatial coordinates specified based on the output information.

また、情報処理装置100は、例えば、算出した第2の修正パラメータを、例えば、記憶部(後述する)などの記録媒体に記録させる。   In addition, the information processing apparatus 100 records, for example, the calculated second correction parameter in a recording medium such as a storage unit (described later).

ここで、携帯されている装置300のユーザを示す識別情報が携帯されている装置300から取得されている場合、または、識別情報を携帯されている装置300から取得することが可能な場合には、情報処理装置100は、第2の修正パラメータを、携帯されている装置300のユーザを示す識別情報と対応付けて記録媒体に記録させてもよい。情報処理装置100は、例えば、第2の修正パラメータと識別情報とを、テーブル(またはデータベース)に記録させるなど、第2の修正パラメータと識別情報とを対応付けて記録させることが可能な任意の方法で、記録媒体に記録させる。   Here, when the identification information indicating the user of the portable device 300 is acquired from the portable device 300 or when the identification information can be acquired from the portable device 300 The information processing apparatus 100 may cause the second correction parameter to be recorded on the recording medium in association with identification information indicating the user of the apparatus 300 being carried. For example, the information processing apparatus 100 can record the second correction parameter and the identification information in association with each other such as recording the second correction parameter and the identification information in a table (or database). And recording on a recording medium.

本実施形態に係る識別情報としては、例えば、ユーザIDおよびパスワードを示すデータや、ユーザの生体情報(データ)など、ユーザを特定することが可能な任意のデータ(またはデータ群)が挙げられる。   As identification information which concerns on this embodiment, the arbitrary data (or data group) which can specify a user, such as data which show a user ID and a password, a user's biometric information (data), are mentioned, for example.

第2の修正パラメータは、例えば上記のように、携帯されている装置300から取得される第2の出力情報に基づく目標空間座標、すなわち、上記(b)に示す未来の動きに対応する検出結果に基づき算出される修正パラメータであるので、ユーザごとに特有の修正パラメータである可能性が高い。よって、情報処理装置100が、第2の修正パラメータと携帯されている装置300のユーザを示す識別情報とを対応付けて記録媒体に記録させることによって、ユーザごとにより適した修正パラメータによるセンサ200のキャリブレーションを、実現させることができる。   The second correction parameter is, for example, as described above, the target space coordinates based on the second output information acquired from the portable device 300, that is, the detection result corresponding to the future movement shown in (b) above. Therefore, there is a high possibility that the correction parameter is unique for each user. Therefore, the information processing apparatus 100 records the second correction parameter and the identification information indicating the user of the portable device 300 on the recording medium in association with each other, so that the sensor 200 with the correction parameter more suitable for each user. Calibration can be realized.

(3)準備情報を生成する処理の第3の例
情報処理装置100は、例えば、上記(1)に示す第1の例に係る準備情報を生成する処理と、上記(2)に示す第2の例に係る準備情報を生成する処理とを、組み合わせた処理を行い、例えば、上記第1の修正パラメータと上記第2の修正パラメータとの一方または双方によって、準備情報を修正することも可能である。上記(1)に示す第1の例に係る準備情報を生成する処理と、上記(2)に示す第2の例に係る準備情報を生成する処理とを、組み合わせた処理の一例については、後述する本実施形態に係る情報処理方法に係る処理の具体例において示す。
(3) Third Example of Process for Generating Preparation Information The information processing apparatus 100, for example, generates the preparation information according to the first example shown in (1) above, and the second example shown in (2) above. It is also possible to modify the preparation information by, for example, one or both of the first correction parameter and the second correction parameter. is there. About an example of the process which combined the process which produces | generates the preparation information which concerns on the 1st example shown to said (1), and the process which produces | generates the preparation information which concerns on the 2nd example shown to the said (2), it mentions later. It shows in a specific example of processing related to the information processing method according to the present embodiment.

情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、例えば上記のような準備情報を生成する処理を行うことによって、準備情報を修正して準備情報を生成する。準備情報を生成する処理により準備情報が生成されることによって、センサ200と所定の座標系との対応付けが制御される。   The information processing apparatus 100 corrects the preparation information and generates the preparation information by performing the processing for generating the preparation information as described above, for example, as the processing related to the information processing method according to the present embodiment. By generating the preparation information by the process of generating the preparation information, the association between the sensor 200 and the predetermined coordinate system is controlled.

また、情報処理装置100は、センサ200から取得される第1の出力情報と携帯されている装置300から取得される第2の出力情報との双方が取得される場合において、上記準備情報を生成する処理を、例えば下記のタイミングで行うことが可能である。
・定期的(間欠的)または非定期的
・ユーザの所定の動作が検出されたとき
Further, the information processing device 100 generates the preparation information when both the first output information acquired from the sensor 200 and the second output information acquired from the portable device 300 are acquired. The processing to be performed can be performed, for example, at the following timing.
・ Periodic (intermittent) or non-periodic ・ When a user's predetermined motion is detected

ここで、上記ユーザの所定の動作としては、例えば、設定されているジェスチャなどのユーザの動作が挙げられる。本実施形態に係る所定の動作の内容は、例えば、紙などの物理的な媒体や、オンラインマニュアルのような電子媒体によって、ユーザに伝えられる。   Here, examples of the predetermined operation of the user include a user operation such as a set gesture. The content of the predetermined operation according to the present embodiment is transmitted to the user via, for example, a physical medium such as paper or an electronic medium such as an online manual.

なお、本実施形態に係る所定の動作をユーザに伝える方法は、上記に限られない。   Note that the method of transmitting the predetermined operation according to the present embodiment to the user is not limited to the above.

例えば、情報処理装置100は、所定の動作を行わせるための通知を制御し、当該通知を自装置(情報処理装置100)や外部装置に行わせることによって、所定の動作の内容をユーザに伝え、ユーザに所定の動作を行わせることも可能である。情報処理装置100は、例えば、文字や画像を表示画面に表示させることによる視覚的な通知や、音声をスピーカなどの音声出力デバイスから出力させることによる聴覚的な通知、あるいは、これらの通知を組み合わせた通知を行わせることによって、所定の動作の内容をユーザに伝える。   For example, the information processing apparatus 100 controls notification for performing a predetermined operation, and notifies the user of the content of the predetermined operation by causing the apparatus (the information processing apparatus 100) or an external device to perform the notification. It is also possible to cause the user to perform a predetermined operation. The information processing apparatus 100, for example, a visual notification by displaying characters and images on a display screen, an auditory notification by outputting sound from a sound output device such as a speaker, or a combination of these notifications The content of the predetermined operation is transmitted to the user by performing the notification.

図6、図7は、本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図であり、情報処理装置100が行わせる所定の動作を行わせるための通知の一例を示している。   6 and 7 are explanatory diagrams for explaining an example of processing related to the information processing method according to the present embodiment, and show an example of notification for causing the information processing apparatus 100 to perform a predetermined operation. ing.

情報処理装置100は、例えば図6に示すように、新たなセンサ200が検出された場合に、所定の動作を行わせるための通知を、自装置(情報処理装置100)や外部装置に行わせる。情報処理装置100は、例えば、新たなセンサ200との通信が確立された場合に、図6に示すような通知を行わせる。   For example, as illustrated in FIG. 6, the information processing apparatus 100 causes the own apparatus (information processing apparatus 100) or an external apparatus to perform notification for performing a predetermined operation when a new sensor 200 is detected. . For example, when communication with a new sensor 200 is established, the information processing apparatus 100 performs notification as illustrated in FIG. 6.

また、情報処理装置100は、例えば図7に示すように、既存のセンサ200の位置の移動が検出された場合に、所定の動作を行わせるための通知を自装置(情報処理装置100)や外部装置に行わせてもよい。情報処理装置100は、例えば、既存のセンサ200から取得される位置の移動の判定に係るデータに基づき、センサ200の位置の移動が検出された場合に、図7に示すような通知を行わせる。   Further, for example, as illustrated in FIG. 7, the information processing apparatus 100 sends a notification for performing a predetermined operation when the movement of the position of the existing sensor 200 is detected, It may be performed by an external device. For example, when the movement of the position of the sensor 200 is detected based on the data related to the determination of the movement of the position acquired from the existing sensor 200, the information processing apparatus 100 performs notification as illustrated in FIG. .

センサ200における設置されている位置の移動は、例えば、センサ200が備える加速度センサなどの動きを検出することが可能なセンサや、センサ200に接続されている加速度センサなどの外部のセンサの検出値によって判定される。センサ200における設置されている位置の移動の判定に係る処理は、例えば、センサ200が行ってもよいし、情報処理装置100が行ってもよい。センサ200によって上記位置の移動の判定に係る処理が行われる場合、位置の移動の判定に係るデータとしては、例えば位置の移動の判定結果を示すデータが挙げられる。また、情報処理装置100によって上記位置の移動の判定に係る処理が行われる場合、位置の移動の判定に係るデータとしては、例えばセンサ200が備えるセンサなどの検出値を示すデータが挙げられる。   The movement of the installed position in the sensor 200 is, for example, a detection value of an external sensor such as an acceleration sensor connected to the sensor 200 or a sensor capable of detecting movement such as an acceleration sensor included in the sensor 200. Is determined by For example, the sensor 200 may perform the process related to the determination of the movement of the position where the sensor 200 is installed, or the information processing apparatus 100 may perform the process. When the process related to the determination of the position movement is performed by the sensor 200, the data related to the determination of the position movement includes, for example, data indicating the determination result of the position movement. In addition, when the information processing apparatus 100 performs the process related to the determination of the movement of the position, the data related to the determination of the movement of the position includes, for example, data indicating a detection value of a sensor included in the sensor 200.

情報処理装置100は、図6、図7に示すような視覚的な通知を行わせることによって、センサ200のキャリブレーションが必要な状況(または、センサ200のキャリブレーションを行うことが望ましい状況)において所定の動作の内容をユーザに伝え、ユーザに所定の動作を行わせることが可能となる。なお、情報処理装置100が行わせる所定の動作を行わせるための通知の例が、図6や図7に示す例に限られないことは、言うまでもない。   The information processing apparatus 100 performs visual notification as shown in FIGS. 6 and 7, so that the sensor 200 needs to be calibrated (or the sensor 200 is preferably calibrated). The content of the predetermined operation can be transmitted to the user, and the user can perform the predetermined operation. Needless to say, an example of notification for causing the information processing apparatus 100 to perform a predetermined operation is not limited to the examples illustrated in FIGS. 6 and 7.

なお、本実施形態に係る情報処理方法に係る処理は、上記準備情報を生成する処理に限られない。   In addition, the process which concerns on the information processing method which concerns on this embodiment is not restricted to the process which produces | generates the said preparation information.

例えば、情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、センサ200から取得される第1の出力情報と、準備情報との一方または双方に基づいて、所定の処理をさらに行うことが可能である。   For example, the information processing apparatus 100 further performs a predetermined process based on one or both of the first output information acquired from the sensor 200 and the preparation information as the process related to the information processing method according to the present embodiment. Is possible.

本実施形態に係る所定の処理としては、例えば、下記に示す(I)変換処理と、下記に示す(II)実行制御処理との一方または双方が挙げられる。   Examples of the predetermined processing according to the present embodiment include one or both of (I) conversion processing shown below and (II) execution control processing shown below.

(I)変換処理
情報処理装置100は、例えば、準備情報に基づいて、センサ200から取得される第1の出力情報に基づいて得られる対象の位置情報を、所定の座標系における座標値へ変換する。
(I) Conversion processing The information processing apparatus 100 converts, for example, target position information obtained based on the first output information acquired from the sensor 200 into coordinate values in a predetermined coordinate system based on the preparation information. To do.

情報処理装置100は、例えば、センサ200の対象世界モデルM1を示すデータに記録されている空間座標(センサ200から取得される第1の出力情報に基づく第1の対象の検出結果の一例。)を、準備情報を用いて所定の座標系における座標値へ変換する。そして、情報処理装置100は、変換した結果を、例えば、対象となる空間全体における対象世界モデル(例えば図3に示す対象世界モデルM3)に反映させる。   The information processing apparatus 100, for example, the spatial coordinates recorded in the data indicating the target world model M1 of the sensor 200 (an example of the detection result of the first target based on the first output information acquired from the sensor 200). Are converted into coordinate values in a predetermined coordinate system using the preparation information. Then, the information processing apparatus 100 reflects the converted result on, for example, the target world model (for example, the target world model M3 shown in FIG. 3) in the entire target space.

図8は、本実施形態に係る対象世界モデルを示すデータの一例を示す説明図であり、処理対象となる空間全体における対象世界モデルM3を示すデータの一例を示している。   FIG. 8 is an explanatory diagram illustrating an example of data indicating the target world model according to the present embodiment, and illustrates an example of data indicating the target world model M3 in the entire space to be processed.

空間全体における対象世界モデルM3とは、例えば、対象となる空間から検出されたオブジェクトと、当該オブジェクトの空間における絶対座標と、当該オブジェクトに該当する携帯されている装置300とが対応付けられて、時系列に保持されるデータモデルである。空間における絶対座標は、例えば、空間における設定された位置を原点として表される。対象世界モデルM3を示すデータとしては、例えば図8に示すような、対象となる空間から検出されたオブジェクトを示すデータと、当該オブジェクトの空間における絶対座標と、当該オブジェクトに該当する携帯されている装置300とが対応付けられて、時系列に記録されるテーブル(またはデータベース)が挙げられる。   The target world model M3 in the entire space is, for example, an object detected from the target space, the absolute coordinates in the space of the object, and the portable device 300 corresponding to the object are associated with each other. It is a data model held in time series. The absolute coordinates in the space are expressed with the set position in the space as the origin, for example. As data indicating the target world model M3, for example, as shown in FIG. 8, data indicating an object detected from a target space, absolute coordinates in the space of the object, and a portable object corresponding to the object. A table (or database) that is associated with the device 300 and is recorded in time series is exemplified.

(II)実行制御処理
情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づいて得られる対象の位置情報が準備情報により変換された、所定の座標系における座標値に基づく処理(以下、「変換された検出結果に基づく処理」と示す場合がある。)を行わせる。
(II) Execution Control Processing The information processing apparatus 100 converts the target position information obtained based on the first output information acquired from the sensor 200 into coordinate values in a predetermined coordinate system converted by preparation information, for example. Based processing (hereinafter may be referred to as “processing based on the converted detection result”).

情報処理装置100が処理を行わせる制御対象としては、例えば、自装置(情報処理装置100)と、情報処理装置100の外部装置との一方または双方が挙げられる。   Examples of the control target to be processed by the information processing apparatus 100 include one or both of the own apparatus (information processing apparatus 100) and an external apparatus of the information processing apparatus 100.

情報処理装置100は、例えば、空間全体における対象世界モデルM3の変化、すなわち、空間におけるオブジェクトの位置(所定の座標系における座標値)の変化に基づいて、制御対象に実行させる、変換された検出結果に基づく処理を決定する。そして、情報処理装置100は、決定された処理を実行させるための命令を含む処理要求を、制御対象に伝達することによって、制御対象に、変換された検出結果に基づく処理を行わせる。   For example, the information processing apparatus 100 causes the control target to perform conversion detection based on a change in the target world model M3 in the entire space, that is, a change in the position of the object in the space (coordinate value in a predetermined coordinate system). Determine processing based on results. Then, the information processing apparatus 100 causes the control target to perform processing based on the converted detection result by transmitting a processing request including a command for executing the determined processing to the control target.

ここで、変換された検出結果に基づく処理としては、例えば、スクリーンSに表示されたUIに対する操作に応じて操作に対応するアプリケーションを実行させる処理(図2に示すユースケースにおける例)など、センサ200から取得される第1出力情報に基づくオブジェクトの検出結果を用いて行うことが可能な、任意の処理が挙げられる。   Here, as a process based on the converted detection result, for example, a sensor that executes an application corresponding to an operation in accordance with an operation on the UI displayed on the screen S (example in the use case shown in FIG. 2) or the like. Arbitrary processing that can be performed using the detection result of the object based on the first output information acquired from 200 is given.

情報処理装置100は、例えば、所定の処理として、例えば、上記(I)変換処理と上記(II)実行制御処理との一方または双方を行う。なお、本実施形態に係る所定の処理は、上記(I)変換処理や、上記(II)実行制御処理に限られず、情報処理装置100は、例えば、第1の出力情報と準備情報との一方または双方に基づいて行うことが可能な任意の処理を、所定の処理として行うことが可能である。   The information processing apparatus 100 performs, for example, one or both of (I) conversion processing and (II) execution control processing as the predetermined processing. Note that the predetermined processing according to the present embodiment is not limited to the above (I) conversion processing and (II) execution control processing, and the information processing apparatus 100, for example, uses one of the first output information and the preparation information. Alternatively, any process that can be performed based on both can be performed as the predetermined process.

本実施形態に係る情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、例えば、“上記準備情報を生成する処理”や、“上記準備情報を生成する処理、および上記所定の処理”を行う。   The information processing apparatus 100 according to the present embodiment includes, for example, “the process for generating the preparation information”, “the process for generating the preparation information, and the predetermined process as processes related to the information processing method according to the embodiment. Process ".

なお、“上記準備情報を生成する処理”や、“上記準備情報を生成する処理、および上記所定の処理”は、便宜上、本実施形態に係る情報処理方法に係る処理を切り分けたものである。よって、本実施形態に係る情報処理方法に係る処理は、例えば、“上記準備情報を生成する処理”を、(任意の切り分け方によって)2以上の処理と捉えることが可能である。また、本実施形態に係る情報処理方法に係る処理は、例えば、“上記準備情報を生成する処理、および上記所定の処理”を、1つの処理と捉えることが可能であり、また、それぞれを、(任意の切り分け方によって)2以上の処理と捉えることも可能である。   Note that “the process for generating the preparation information”, “the process for generating the preparation information, and the predetermined process” are obtained by separating the processes related to the information processing method according to the present embodiment for convenience. Therefore, the process according to the information processing method according to the present embodiment can be regarded as, for example, “the process of generating the preparation information” as two or more processes (depending on an arbitrary separation method). In addition, the process according to the information processing method according to the present embodiment can be regarded as, for example, “the process for generating the preparation information and the predetermined process” as one process. It can also be regarded as two or more processes (depending on an arbitrary separation method).

[3]本実施形態に係る情報処理方法に係る処理の具体例
次に、情報処理装置100における本実施形態に係る情報処理方法に係る処理の具体例を示す。
[3] Specific Example of Processing According to Information Processing Method According to This Embodiment Next, a specific example of processing according to the information processing method according to this embodiment in the information processing apparatus 100 will be described.

図9は、本実施形態に係る情報処理方法に係る処理の一例を示す流れ図である。ここで、例えば図9に示すステップS104〜S120の処理が、上記準備情報を生成する処理の一例に該当する。また、例えば、図9に示すステップS122の処理が、上記(I)の処理(変換処理)の一例に該当し、図9に示すステップS124の処理が、上記(II)の処理(実行制御処理)の一例に該当する。   FIG. 9 is a flowchart illustrating an example of processing according to the information processing method according to the present embodiment. Here, for example, the processing of steps S104 to S120 illustrated in FIG. 9 corresponds to an example of processing for generating the preparation information. Further, for example, the process in step S122 shown in FIG. 9 corresponds to an example of the process (I) (conversion process), and the process in step S124 shown in FIG. 9 is performed in the process (II) (execution control process). ).

情報処理装置100は、センサ200から取得された第1の出力情報に基づいて、センサ200の対象世界モデルM1を示すデータを更新する(S100)。情報処理装置100は、例えば、センサ200に対応する対象世界モデルM1を示すデータが記録媒体に記憶されていない場合には、図4に示すような対象世界モデルM1を示すデータを作成して更新する。また、情報処理装置100は、例えば、センサ200に対応する対象世界モデルM1を示すデータが記録媒体に記憶されている場合には、記憶されている対象世界モデルM1を示すデータを更新する。   The information processing apparatus 100 updates data indicating the target world model M1 of the sensor 200 based on the first output information acquired from the sensor 200 (S100). For example, when data indicating the target world model M1 corresponding to the sensor 200 is not stored in the recording medium, the information processing apparatus 100 creates and updates data indicating the target world model M1 as illustrated in FIG. To do. For example, when data indicating the target world model M1 corresponding to the sensor 200 is stored in the recording medium, the information processing apparatus 100 updates the stored data indicating the target world model M1.

情報処理装置100は、携帯されている装置300から取得された第2の出力情報に基づいて、携帯されている装置300の対象世界モデルM2を示すデータを更新する(S102)。情報処理装置100は、例えば、携帯されている装置300に対応する対象世界モデルM2を示すデータが記録媒体に記憶されていない場合には、図5に示すような対象世界モデルM2を示すデータを作成して更新する。また、情報処理装置100は、例えば、携帯されている装置300に対応する対象世界モデルM2を示すデータが記録媒体に記憶されている場合には、記憶されている対象世界モデルM2を示すデータを更新する。   The information processing apparatus 100 updates the data indicating the target world model M2 of the portable device 300 based on the second output information acquired from the portable device 300 (S102). For example, if the data indicating the target world model M2 corresponding to the portable device 300 is not stored in the recording medium, the information processing apparatus 100 stores the data indicating the target world model M2 as illustrated in FIG. Create and update. For example, when data indicating the target world model M2 corresponding to the portable device 300 is stored in the recording medium, the information processing apparatus 100 stores the data indicating the stored target world model M2. Update.

なお、図9では、ステップS100の処理が行われた後に、ステップS102の処理が行われる例を示しているが、情報処理装置100における処理は、上記に限られない。例えば、情報処理装置100は、ステップS100の処理と、ステップS102の処理とを独立に行うことが可能である。よって、情報処理装置100では、ステップS100の処理と、ステップS102の処理とが同期して行われてもよいし、ステップS102の処理の後にステップS100の処理が行われてもよい。   Although FIG. 9 shows an example in which the process of step S102 is performed after the process of step S100 is performed, the process in the information processing apparatus 100 is not limited to the above. For example, the information processing apparatus 100 can perform the process of step S100 and the process of step S102 independently. Therefore, in the information processing apparatus 100, the process of step S100 and the process of step S102 may be performed in synchronization, or the process of step S100 may be performed after the process of step S102.

情報処理装置100は、例えば、センサ200の対象世界モデルM1を示すデータのオブジェクトと、携帯されている装置300に対応する対象世界モデルM2を示すデータのオブジェクトとのうち、移動量ベクトルの相関が高いオブジェクトを検出する(S104)。ここで、ステップS104の処理は、センサ200に対応する対象世界モデルM1を示すデータと、携帯されている装置300に対応する対象世界モデルM2を示すデータとから、同一のオブジェクトに対応するデータを検出する処理に該当する。   The information processing apparatus 100 has, for example, a correlation between movement amount vectors of a data object indicating the target world model M1 of the sensor 200 and a data object indicating the target world model M2 corresponding to the portable apparatus 300. A high object is detected (S104). Here, the process of step S104 is performed by obtaining data corresponding to the same object from data indicating the target world model M1 corresponding to the sensor 200 and data indicating the target world model M2 corresponding to the portable device 300. This corresponds to the processing to be detected.

情報処理装置100は、例えば、移動量ベクトルの相関係数が設定されている閾値(例えば、0<閾値<1)以上、または、当該相関係数が当該閾値より大きい場合に、移動量ベクトルの相関が高いと判定する。また、情報処理装置100は、移動量ベクトルの相関が高いと判定された場合に、移動量ベクトルの相関が高いオブジェクトが検出されたと判定する。   For example, when the correlation coefficient of the movement vector is set to a threshold (for example, 0 <threshold <1) or more, or when the correlation coefficient is larger than the threshold, the information processing apparatus 100 It is determined that the correlation is high. Further, when the information processing apparatus 100 determines that the correlation of the movement amount vector is high, the information processing apparatus 100 determines that an object having a high correlation of the movement amount vector is detected.

情報処理装置100は、相関が高いオブジェクトが検出されたか否かを判定する(S106)。   The information processing apparatus 100 determines whether an object having a high correlation is detected (S106).

ステップS106において相関が高いオブジェクトが検出されたと判定されない場合には、情報処理装置100は、例えば後述するステップS118からの処理を行う。   If it is not determined in step S106 that an object with high correlation has been detected, the information processing apparatus 100 performs, for example, processing from step S118 described below.

また、ステップS106において相関が高いオブジェクトが検出されたと判定された場合には、情報処理装置100は、移動量ベクトルのズレが閾値以上であるか否かを判定する(S108)。ここで、ステップS108の判定は、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、対応する携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとを評価する処理に該当する。   If it is determined in step S106 that an object having a high correlation has been detected, the information processing apparatus 100 determines whether or not the shift of the movement amount vector is greater than or equal to a threshold (S108). Here, the determination in step S108 is based on the movement amount vector based on the first output information acquired from the sensor 200, and the movement amount vector based on the second output information acquired from the corresponding portable device 300. It corresponds to the processing to evaluate.

ここで、ステップS108の処理に係る閾値は、予め設定されている固定値であってもよいし、情報処理装置100のユーザなどの操作によって設定可能な可変値であってもよい。また、ステップS108では、移動量ベクトルのズレが当該閾値より大きいか否かが判定されてもよい。   Here, the threshold value related to the process of step S108 may be a fixed value set in advance, or may be a variable value that can be set by an operation of the user of the information processing apparatus 100 or the like. Further, in step S108, it may be determined whether or not the shift of the movement amount vector is larger than the threshold value.

ステップS108において移動量ベクトルのズレが閾値以上であると判定されない場合には、情報処理装置100は、後述するステップS112からの処理を行う。   If it is not determined in step S108 that the displacement of the movement amount vector is greater than or equal to the threshold value, the information processing apparatus 100 performs processing from step S112 described later.

また、ステップS108において移動量ベクトルのズレが閾値以上であると判定された場合には、情報処理装置100は、センサ200に対応する準備情報を修正する(S110)。情報処理装置100は、例えば、上記(1)に示す第1の例に係る準備情報を生成する処理を行い、算出された第1の修正パラメータによって準備情報を修正する。   If it is determined in step S108 that the displacement of the movement amount vector is greater than or equal to the threshold value, the information processing apparatus 100 corrects the preparation information corresponding to the sensor 200 (S110). For example, the information processing apparatus 100 performs processing for generating the preparation information according to the first example shown in (1) above, and corrects the preparation information using the calculated first correction parameter.

具体例を挙げると、情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、対応する携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとを一致させる修正パラメータを、第1の修正パラメータとして算出する。上記のように第1の修正パラメータを算出することによって、情報処理装置100は、センサ200から取得される第1の出力情報に基づくオブジェクトの位置と、携帯されている装置300から取得される第2の出力情報に基づくオブジェクトの位置との位置ずれを修正する修正パラメータを、第1の修正パラメータとして算出することができる。   As a specific example, the information processing apparatus 100 includes, for example, a movement amount vector based on first output information acquired from the sensor 200 and second output information acquired from the corresponding portable apparatus 300. A correction parameter that matches the movement amount vector based on is calculated as a first correction parameter. By calculating the first correction parameter as described above, the information processing apparatus 100 detects the position of the object based on the first output information acquired from the sensor 200 and the first apparatus acquired from the portable apparatus 300. The correction parameter for correcting the positional deviation from the position of the object based on the output information 2 can be calculated as the first correction parameter.

なお、上述したように、情報処理装置100は、例えば、センサ200から取得される第1の出力情報に対応する時間と携帯されている装置300から取得される第1の出力情報に対応する時間との時間ずれをさらに修正する修正パラメータを、第1の修正パラメータとして算出してもよい。   Note that, as described above, the information processing apparatus 100, for example, has a time corresponding to the first output information acquired from the sensor 200 and a time corresponding to the first output information acquired from the portable apparatus 300. A correction parameter that further corrects the time lag from the above may be calculated as the first correction parameter.

そして、情報処理装置100は、算出された第1の修正パラメータによって準備情報を修正する。   Then, the information processing apparatus 100 corrects the preparation information with the calculated first correction parameter.

ステップS108において移動量ベクトルのズレが閾値以上であると判定されない場合、または、ステップS110の処理が行われた場合には、目標空間座標が設定されているか否かを判定する(S112)。ここで、目標空間座標は、例えば、携帯されている装置300から取得される第2の出力情報に基づき上記(b)に示す未来の動きに対応する検出結果が得られることによって設定される、携帯されている装置300から取得される第2の出力情報に基づく空間座標である。   If it is not determined in step S108 that the displacement of the movement vector is greater than or equal to the threshold value, or if the process of step S110 is performed, it is determined whether the target space coordinates are set (S112). Here, the target space coordinates are set by obtaining a detection result corresponding to the future movement shown in (b) based on the second output information acquired from the portable device 300, for example. It is a spatial coordinate based on the 2nd output information acquired from the apparatus 300 currently carried.

ステップS112において目標空間座標が設定されていると判定されない場合には、情報処理装置100は、例えば後述するステップS118からの処理を行う。   If it is not determined in step S112 that the target space coordinates are set, the information processing apparatus 100 performs processing from step S118 described below, for example.

また、ステップS112において目標空間座標が設定されていると判定された場合には、情報処理装置100は、センサ200から取得される第1の出力情報に基づき特定される空間座標と、目標空間座標とのズレが、閾値以上であるか否かを判定する(S114)。ここで、ステップS114の判定は、センサ200から取得される第1の出力情報に基づく空間座標と目標空間座標とを評価する処理に該当する。   If it is determined in step S112 that the target space coordinates are set, the information processing apparatus 100 determines the spatial coordinates specified based on the first output information acquired from the sensor 200, and the target space coordinates. It is determined whether or not the deviation is greater than or equal to a threshold value (S114). Here, the determination in step S <b> 114 corresponds to a process of evaluating the space coordinates and the target space coordinates based on the first output information acquired from the sensor 200.

ここで、ステップS114の処理に係る閾値は、予め設定されている固定値であってもよいし、情報処理装置100のユーザなどの操作によって設定可能な可変値であってもよい。また、ステップS114では、センサ200から取得される第1の出力情報に基づき特定される空間座標と目標空間座標とのズレが当該閾値より大きいか否かが判定されてもよい。   Here, the threshold value related to the process of step S114 may be a fixed value set in advance or a variable value that can be set by an operation of the user of the information processing apparatus 100 or the like. Further, in step S114, it may be determined whether or not the deviation between the spatial coordinates specified based on the first output information acquired from the sensor 200 and the target spatial coordinates is larger than the threshold value.

ステップS114において、センサ200から取得される第1の出力情報に基づき特定される空間座標と目標空間座標とのズレが、閾値以上であると判定されない場合には、情報処理装置100は、例えば後述するステップS118からの処理を行う。   In step S114, when it is not determined that the difference between the spatial coordinates specified based on the first output information acquired from the sensor 200 and the target spatial coordinates is greater than or equal to the threshold value, the information processing apparatus 100, for example, will be described later. The processing from step S118 is performed.

また、ステップS114において、センサ200から取得される第1の出力情報に基づき特定される空間座標と目標空間座標とのズレが、閾値以上であると判定された場合には、情報処理装置100は、センサ200に対応する準備情報を修正する(S116)。情報処理装置100は、例えば、上記(2)に示す第2の例に係る準備情報を生成する処理を行い、算出された第2の修正パラメータによって準備情報を修正する。   If it is determined in step S114 that the difference between the spatial coordinates specified based on the first output information acquired from the sensor 200 and the target spatial coordinates is equal to or greater than the threshold, the information processing apparatus 100 The preparation information corresponding to the sensor 200 is corrected (S116). For example, the information processing apparatus 100 performs processing for generating preparation information according to the second example shown in (2) above, and corrects the preparation information using the calculated second correction parameter.

具体例を挙げると、情報処理装置100は、例えば、目標空間座標と特定された空間座標とのズレを修正する修正パラメータを、第2の修正パラメータとして算出する。そして、情報処理装置100は、算出された第2の修正パラメータによって準備情報を修正する。   For example, the information processing apparatus 100 calculates, as the second correction parameter, a correction parameter that corrects a deviation between the target space coordinates and the specified space coordinates, for example. Then, the information processing apparatus 100 corrects the preparation information with the calculated second correction parameter.

また、携帯されている装置300に対応する識別情報が取得された場合には、情報処理装置100は、取得された識別情報と対応付けられている第2の修正パラメータを検索する。そして、識別情報と対応付けられている第2の修正パラメータが存在する場合には、情報処理装置100は、識別情報と対応付けられている第2の修正パラメータによって、準備情報を修正する。   When the identification information corresponding to the device 300 being carried is acquired, the information processing apparatus 100 searches for the second correction parameter associated with the acquired identification information. When there is a second correction parameter associated with the identification information, the information processing apparatus 100 corrects the preparation information with the second correction parameter associated with the identification information.

上記ステップS106〜S120までの処理によって、準備情報が選択的に修正されると、情報処理装置100は、準備情報を用いて、センサ200の対象世界モデルM1を示すデータを、空間全体における対象世界モデルM3を示すデータに反映させる(S118)。   When the preparation information is selectively modified by the processing from the above steps S106 to S120, the information processing apparatus 100 uses the preparation information to convert the data indicating the target world model M1 of the sensor 200 into the target world in the entire space. The data representing the model M3 is reflected (S118).

情報処理装置100は、例えば、上記(I)の処理(変換処理)を行うことによって、センサ200の対象世界モデルM1を示すデータの空間座標を、準備情報に基づいて絶対空間座標(所定の座標系における座標値)へ変換する。そして、情報処理装置100は、変換された絶対空間座標を対象世界モデルM3を示すデータに記録する。   The information processing apparatus 100 performs, for example, the above processing (I) (conversion processing) to obtain the spatial coordinates of the data indicating the target world model M1 of the sensor 200 based on the preparation information based on the absolute spatial coordinates (predetermined coordinates Coordinate value in the system). Then, the information processing apparatus 100 records the converted absolute space coordinates in data indicating the target world model M3.

情報処理装置100は、空間全体における対象世界モデルM3の変化に基づいて処理を行わせる(S120)。   The information processing apparatus 100 performs processing based on the change of the target world model M3 in the entire space (S120).

情報処理装置100は、例えば、上記(II)の処理(実行制御処理)を行うことによって、変換された検出結果に基づく処理を決定し、決定された処理を実行させるための命令を含む処理要求を制御対象に伝達することによって、制御対象に、変換された検出結果に基づく処理を行わせる。   For example, the information processing apparatus 100 determines a process based on the converted detection result by performing the process (II) (execution control process), and includes a process request including an instruction for executing the determined process. Is transmitted to the control target to cause the control target to perform processing based on the converted detection result.

情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、例えば図9に示す処理を行う。   The information processing apparatus 100 performs, for example, the process illustrated in FIG. 9 as the process related to the information processing method according to the present embodiment.

例えば図9に示す処理が行われる場合には、センサ200から取得される第1の出力情報と、携帯されている装置300から取得される第2の出力情報とに基づいて、準備情報が選択的に修正される。   For example, when the process illustrated in FIG. 9 is performed, the preparation information is selected based on the first output information acquired from the sensor 200 and the second output information acquired from the portable device 300. Corrected.

よって、例えば図9に示す処理が行われることによって、情報処理装置100は、センサ200と所定の座標系との対応付けを制御することができる。   Therefore, for example, by performing the process illustrated in FIG. 9, the information processing apparatus 100 can control the association between the sensor 200 and a predetermined coordinate system.

また、例えば図9に示す処理が行われることによって、情報処理装置100は、携帯されている装置300から取得される第2の出力情報に基づく空間座標を、準備情報に基づいて絶対空間座標へ変換することができる。さらに、例えば図9に示す処理が行われることによって、情報処理装置100は、変換された検出結果に基づく処理を、制御対象に行わせることができる。   Further, for example, by performing the processing illustrated in FIG. 9, the information processing apparatus 100 converts the spatial coordinates based on the second output information acquired from the portable apparatus 300 to the absolute spatial coordinates based on the preparation information. Can be converted. Further, for example, by performing the processing illustrated in FIG. 9, the information processing apparatus 100 can cause the control target to perform processing based on the converted detection result.

したがって、情報処理装置100が、例えば図9に示す処理を行うことによって、例えば図2に示すようなUIを操作するユースケースにおいて、ユーザの動作によりユーザが意図した処理が行われる可能性を高めることが可能となるので、ユーザの操作性や利便性をより高めることができる。   Therefore, the information processing apparatus 100 performs, for example, the process illustrated in FIG. 9, thereby increasing the possibility that the process intended by the user is performed by the user's action in a use case in which the UI illustrated in FIG. 2 is operated, for example. Therefore, user operability and convenience can be further improved.

なお、本実施形態に係る情報処理方法に係る処理は、図9に示す例に限られない。   In addition, the process which concerns on the information processing method which concerns on this embodiment is not restricted to the example shown in FIG.

例えば、情報処理装置100は、図9のステップS112〜S116の処理を行わない、すなわち、第2の修正パラメータに基づく準備情報の修正を行わなくてもよい。   For example, the information processing apparatus 100 does not need to perform the processing of steps S112 to S116 in FIG. 9, that is, does not need to correct the preparation information based on the second correction parameter.

また、情報処理装置100は、例えば、“図9のステップS120”、または、“図9のステップS118の処理、およびS120の処理を行わないことも可能である。   Further, for example, the information processing apparatus 100 may not perform “step S120 in FIG. 9” or “step S118 in FIG. 9 and S120”.

“図9のステップS120”、または、“図9のステップS118の処理、およびS120の処理を行わない場合であっても、情報処理装置100は、上記準備情報を生成する処理によって、準備情報を修正することができる。よって、“図9のステップS120”、または、“図9のステップS118の処理、およびS120の処理を行わない場合であっても、情報処理装置100は、センサ200と所定の座標系との対応付けを制御することが可能であるので、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。   Even if “Step S120 of FIG. 9” or “Step S118 of FIG. 9 and Step S120 of FIG. 9 are not performed, the information processing apparatus 100 obtains the preparation information by the process of generating the preparation information. Therefore, even if “step S120 in FIG. 9” or “step S118 in FIG. 9 and step S120 in FIG. Since it is possible to control the association with the coordinate system, it is possible to improve the convenience of the user when a sensor that senses a predetermined range of space is used.

[4]本実施形態に係る情報処理方法が適用可能なユースケース
次に、本実施形態に係る情報処理方法が適用されうるユースケースを示す。以下では、ユースケースにおける本実施形態に係る情報処理方法に係る処理を、情報処理装置100が行う場合を例に挙げる。
[4] Use cases to which the information processing method according to the present embodiment can be applied Next, use cases to which the information processing method according to the present embodiment can be applied will be described. Hereinafter, a case where the information processing apparatus 100 performs the process related to the information processing method according to the present embodiment in the use case will be described as an example.

[4−1]ユースケースの第1の例
太陽光の影響など使用環境の変化により、過去に設定された準備情報では、イメージセンサなどのセンサによる検出結果の精度が著しく悪くなることがありうる。また、使用環境の変化の度に、ユーザに何らかのキャリブレーションに係る操作を行わせるのは手間である。
[4-1] First Example of Use Case With the preparation information set in the past due to changes in the usage environment such as the influence of sunlight, the accuracy of the detection result by a sensor such as an image sensor may be significantly deteriorated. . In addition, it is troublesome to cause the user to perform some calibration-related operation whenever the usage environment changes.

本実施形態に係る情報処理方法が用いられる場合には、例えば、ユーザが身に付けているウェアラブルデバイス(携帯されている装置300の一例)から取得される第2の出力情報を用いて、各時点におけるより適した準備情報を得ることが可能であるので、センサ200から取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態に保つことができる。   When the information processing method according to the present embodiment is used, for example, using the second output information acquired from the wearable device (an example of the portable device 300) worn by the user, Since more suitable preparation information at the time can be obtained, the accuracy of the detection result of the object based on the first output information acquired from the sensor 200 can be kept high.

[4−2]ユースケースの第2の例
上述したように、本実施形態に係る情報処理方法に係る処理が行われることによって、センサ200から取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態に保つことができる。
[4-2] Second Example of Use Case As described above, an object is detected based on the first output information acquired from the sensor 200 by performing the processing according to the information processing method according to the present embodiment. The accuracy of the result can be kept high.

複数のセンサ200が空間に設置される際にセンサのキャリブレーションを行う場合には、例えば、ユーザが身に付けているウェアラブルデバイス(携帯されている装置300の一例)から取得される第2の出力情報に基づいて、センサ200同士が互いに検出したオブジェクトの位置の情報を共有して、検出範囲を広げることが可能である。   When the sensors are calibrated when the plurality of sensors 200 are installed in the space, for example, a second acquired from a wearable device worn by the user (an example of the portable device 300). Based on the output information, it is possible to expand the detection range by sharing information on the positions of the objects detected by the sensors 200 with each other.

図10は、本実施形態に係る情報処理方法が適用可能なユースケースの一例を説明するための説明図である。図10は、設置されていたセンサ200Aに加えて、センサ200Bが新たに設置された例を示している。   FIG. 10 is an explanatory diagram for explaining an example of a use case to which the information processing method according to the present embodiment can be applied. FIG. 10 shows an example in which a sensor 200B is newly installed in addition to the sensor 200A that has been installed.

ここで、本実施形態に係る情報処理方法に係る処理が新たに設置されたセンサ200Bに対して行われることによって、上述したように、センサ200Bから取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態とする可能である。   Here, as a result of the processing relating to the information processing method according to the present embodiment being performed on the newly installed sensor 200B, the object based on the first output information acquired from the sensor 200B as described above. The accuracy of the detection result can be made high.

なお、新たに設置されたセンサ200Bから取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態とする方法は、上記に示す例に限られない。   Note that the method of setting the accuracy of the detection result of the object based on the first output information acquired from the newly installed sensor 200 </ b> B is not limited to the example described above.

例えば、センサ200A、センサ200B、および携帯されている装置300Cそれぞれの出力情報に基づき同一のオブジェクトを検出される場合には、センサ200Aから取得される第1の出力情報に基づく移動量ベクトル、センサ200Bから取得される第1の出力情報に基づく移動量ベクトル、および携帯されている装置300Cから取得される第2の出力情報に基づく移動量ベクトルは、同一となる。   For example, when the same object is detected based on the output information of each of the sensor 200A, the sensor 200B, and the portable device 300C, the movement amount vector based on the first output information acquired from the sensor 200A, the sensor The movement amount vector based on the first output information acquired from 200B and the movement amount vector based on the second output information acquired from the portable device 300C are the same.

情報処理装置100は、上記のように、センサ200A、センサ200B、および携帯されている装置300Cそれぞれに対応する移動量ベクトルが同一となることを利用して、センサ200Aの対象世界モデルM1と、センサ200Bの対象世界モデルM1との対応付けを自動的に行う。例えば、新たに設置されたセンサ200Bの対象世界モデルM1が、設置されているセンサ200Aの対象世界モデルM1に対応付られることによって、新たに設置されたセンサ200Bから取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態とすることが可能となる。   As described above, the information processing apparatus 100 uses the movement amount vector corresponding to each of the sensor 200A, the sensor 200B, and the portable apparatus 300C to make the target world model M1 of the sensor 200A, The association with the target world model M1 of the sensor 200B is automatically performed. For example, the first output information acquired from the newly installed sensor 200B by associating the target world model M1 of the newly installed sensor 200B with the target world model M1 of the installed sensor 200A. It is possible to make the accuracy of the detection result of the object based on the high accuracy state.

ここで、情報処理装置100は、例えば図6に示すような通知を、ユーザに対して行わせることによって、積極的に、センサ200Aの対象世界モデルM1とセンサ200Bの対象世界モデルM1との対応付けを行ってもよい。   Here, for example, the information processing apparatus 100 positively associates the target world model M1 of the sensor 200A with the target world model M1 of the sensor 200B by causing the user to perform notification as illustrated in FIG. You may attach

[4−3]ユースケースの第3の例
例えば複数のセンサ200を設置した場合には、ユーザが意図的に、または意図せずにセンサ200を動かしてしまうこともありうる。
[4-3] Third Example of Use Case For example, when a plurality of sensors 200 are installed, the user may move the sensors 200 intentionally or unintentionally.

ここで、上述したように、情報処理装置100は、例えば、センサ200が備える加速度センサなどの検出値によって、センサ200が移動したことを判定して、準備情報を再度修正することが可能である。   Here, as described above, for example, the information processing apparatus 100 can determine that the sensor 200 has moved based on a detection value such as an acceleration sensor included in the sensor 200 and correct the preparation information again. .

なお、センサ200が動いた場合における処理は、上記に示す例に限られない。   Note that the processing when the sensor 200 moves is not limited to the example shown above.

例えば、情報処理装置100は、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルの評価によって、センサ200が動いたか否かを判定することが可能である。センサ200が動いたと判定された場合には、情報処理装置100は、準備情報を再度修正する。   For example, the information processing apparatus 100 can determine whether or not the sensor 200 has moved by evaluating the movement amount vector based on the second output information acquired from the portable apparatus 300. If it is determined that the sensor 200 has moved, the information processing apparatus 100 corrects the preparation information again.

また、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルの評価によって、センサ200が動いたか否かを判定する場合、情報処理装置100は、例えば、図7に示すような通知を、ユーザに対して行わせることによって、積極的に、判定を行ってもよい。   When determining whether or not the sensor 200 has moved based on the evaluation of the movement amount vector based on the second output information acquired from the portable device 300, the information processing device 100 is illustrated in FIG. The determination may be positively performed by causing the user to perform such notification.

[4−4]ユースケースの第4の例
上述したように、情報処理装置100は、ユーザが視線を向けることが予測される目標空間座標(上記(b)に示す未来の動きに対応する検出結果の一例)によって、準備情報を修正することが可能であるので、ユーザの意図を、センサ200におけるオブジェクトの検出結果に反映させることができる。
[4-4] Fourth Example of Use Case As described above, the information processing apparatus 100 detects the target space coordinates (the detection corresponding to the future movement shown in (b) above) where the user is predicted to turn his gaze. Since the preparation information can be corrected according to an example of the result, the intention of the user can be reflected in the detection result of the object in the sensor 200.

図11は、本実施形態に係る情報処理方法が適用可能なユースケースの他の例を説明するための説明図である。図11は、ユーザが、所望のオブジェクトに向かって腕を動かす動作を行う前に、所望のオブジェクトであるぬいぐるみOに視線を向けた例を示している。   FIG. 11 is an explanatory diagram for explaining another example of a use case to which the information processing method according to the present embodiment can be applied. FIG. 11 shows an example in which the user looks at the stuffed animal O, which is the desired object, before the user moves the arm toward the desired object.

情報処理装置100は、携帯されている装置300Cからユーザの視線に関する情報を取得し、目標空間座標を特定する。   The information processing apparatus 100 acquires information about the user's line of sight from the apparatus 300C that is carried, and specifies the target space coordinates.

その後、ユーザがぬいぐるみOに向かって腕を動かしたとき、腕の方向が、ぬいぐるみOが存在する方向とずれることが起こりうる。情報処理装置100は、例えば、目標空間座標に基づき準備情報を修正し、準備情報によって、センサ200A、センサ200Bそれぞれの第1の出力情報に基づく空間座標を、絶対空間座標(所定の座標系における座標値)へ変換する。   Thereafter, when the user moves the arm toward the stuffed toy O, the direction of the arm may be shifted from the direction in which the stuffed toy O exists. For example, the information processing apparatus 100 corrects the preparation information based on the target space coordinates, and converts the spatial coordinates based on the first output information of the sensors 200A and 200B to the absolute space coordinates (in a predetermined coordinate system) based on the preparation information. Coordinate value).

上記のように、準備情報によりセンサ200A、センサ200Bそれぞれの第1の出力情報に基づく空間座標を、絶対空間座標へ変換されることによって、ユーザがぬいぐるみOに向かって腕を動かしたかったというユーザの意図を反映させることができる。また、他の状況においても、準備情報によりセンサ200A、センサ200Bそれぞれの第1の出力情報に基づく空間座標を、絶対空間座標(所定の座標系における座標値)へ変換することによって、ユーザの意図と、実際のユーザの操作によるセンサの検出結果との差を修正することができる。   As described above, the user wants to move his arm toward the stuffed animal O by converting the spatial coordinates based on the first output information of each of the sensors 200A and 200B into the absolute spatial coordinates based on the preparation information. Can reflect the intentions. Also, in other situations, the user's intention is obtained by converting the spatial coordinates based on the first output information of the sensors 200A and 200B into the absolute spatial coordinates (coordinate values in a predetermined coordinate system) based on the preparation information. And the difference between the detection result of the sensor and the actual user operation can be corrected.

[5]本実施形態に係る情報処理方法が用いられることにより奏される効果の一例
本実施形態に係る情報処理方法が用いられることによって、例えば下記に示す効果が奏される。なお、本実施形態に係る情報処理方法が用いられることにより奏される効果が、下記に示す例に限られないことは、言うまでもない。
・センサ200のキャリブレーションの設定に際して、ユーザが身に付けているウェアラブルデバイス(携帯されている装置300の一例)から取得された第2の出力情報が用いられるので、センサ200のキャリブレーションに係る、ユーザの特別な専用操作が必要ない。また、上記ウェアラブルデバイス(携帯されている装置300の一例)では、汎用のセンサを利用することが可能であり、上記ウェアラブルデバイス(携帯されている装置300の一例)が専用のセンサを搭載している必要はない。
・使用環境に対応する準備情報が設定されることによって、センサ200から取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態に保つことができる。
・センサ200の数を増やした場合に、ウェアラブルデバイス(携帯されている装置300の一例)から取得される第2の出力情報を利用したセンサ200のキャリブレーションが可能である。ウェアラブルデバイス(携帯されている装置300の一例)から取得される第2の出力情報を利用したセンサ200のキャリブレーションが行われる場合には、センサ200の設置時に、センサ200のキャリブレーションに係る、ユーザの特別な専用操作が必要ない。
・ユーザの操作目標に対応する準備情報によって、センサ200の第1の出力情報に基づく空間座標を、絶対空間座標(所定の座標系における座標値)へ変換することによって、センサ200から取得される第1の出力情報に基づく検出結果に、ユーザの意図を反映させることができる。
[5] An example of the effect produced by using the information processing method according to the present embodiment The following effects can be obtained by using the information processing method according to the present embodiment, for example. Needless to say, the effects produced by using the information processing method according to the present embodiment are not limited to the examples shown below.
When the calibration of the sensor 200 is set, the second output information acquired from the wearable device (an example of the portable device 300) worn by the user is used. No special user operation is required. The wearable device (an example of the portable device 300) can use a general-purpose sensor, and the wearable device (an example of the portable device 300) is equipped with a dedicated sensor. There is no need to be.
By setting the preparation information corresponding to the use environment, the accuracy of the object detection result based on the first output information acquired from the sensor 200 can be kept high.
When the number of sensors 200 is increased, the sensors 200 can be calibrated using second output information acquired from a wearable device (an example of a portable device 300). When the sensor 200 is calibrated using the second output information acquired from the wearable device (an example of the portable device 300), the sensor 200 is related to the calibration when the sensor 200 is installed. No special user operation is required.
Obtained from the sensor 200 by converting the spatial coordinates based on the first output information of the sensor 200 into absolute spatial coordinates (coordinate values in a predetermined coordinate system) based on the preparation information corresponding to the operation target of the user. The user's intention can be reflected in the detection result based on the first output information.

(本実施形態に係る情報処理装置)
次に、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能な本実施形態に係る情報処理装置の構成の一例について、説明する。
(Information processing apparatus according to this embodiment)
Next, an example of the configuration of the information processing apparatus according to the present embodiment capable of performing the process according to the information processing method according to the present embodiment described above will be described.

図12は、本実施形態に係る情報処理装置100の構成の一例を示すブロック図である。情報処理装置100は、例えば、通信部102と、制御部104とを備える。   FIG. 12 is a block diagram illustrating an example of the configuration of the information processing apparatus 100 according to the present embodiment. The information processing apparatus 100 includes, for example, a communication unit 102 and a control unit 104.

また、情報処理装置100は、例えば、ROM(Read Only Memory。図示せず)や、RAM(Random Access Memory。図示せず)、記憶部(図示せず)、ユーザが操作可能な操作部(図示せず)、様々な画面を表示画面に表示する表示部(図示せず)などを備えていてもよい。情報処理装置100は、例えば、データの伝送路としてのバスにより上記各構成要素間を接続する。   The information processing apparatus 100 includes, for example, a ROM (Read Only Memory) (not shown), a RAM (Random Access Memory) (not shown), a storage unit (not shown), and an operation unit (see FIG. And a display unit (not shown) for displaying various screens on the display screen. The information processing apparatus 100 connects the above constituent elements by, for example, a bus as a data transmission path.

ROM(図示せず)は、制御部104が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAM(図示せず)は、制御部104により実行されるプログラムなどを一時的に記憶する。   A ROM (not shown) stores control data such as programs and calculation parameters used by the control unit 104. A RAM (not shown) temporarily stores a program executed by the control unit 104.

記憶部(図示せず)は、情報処理装置100が備える記憶手段であり、例えば、センサ200ごとの対象世界モデルM1を示すデータや、携帯されている装置300ごとの対象世界モデルM2を示すデータ、対象となる空間全体における対象世界モデルM3を示すデータ、センサ200ごとの準備情報などの、本実施形態に係る情報処理方法に係るデータや、各種アプリケーションなど様々なデータを記憶する。ここで、記憶部(図示せず)としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)などが挙げられる。また、記憶部(図示せず)は、情報処理装置100から着脱可能であってもよい。   The storage unit (not shown) is a storage unit included in the information processing apparatus 100. For example, the data indicating the target world model M1 for each sensor 200 or the data indicating the target world model M2 for each portable device 300. Various data such as data related to the information processing method according to the present embodiment, such as data indicating the target world model M3 in the entire target space, preparation information for each sensor 200, and various applications are stored. Here, examples of the storage unit (not shown) include a magnetic recording medium such as a hard disk, a non-volatile memory such as a flash memory, and the like. Further, the storage unit (not shown) may be detachable from the information processing apparatus 100.

操作部(図示せず)としては、後述する操作入力デバイスが挙げられる。また、表示部(図示せず)としては、後述する表示デバイスが挙げられる。   As the operation unit (not shown), an operation input device to be described later can be cited. Moreover, as a display part (not shown), the display device mentioned later is mentioned.

[情報処理装置100のハードウェア構成例]
図13は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す説明図である。情報処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、通信インタフェース164とを備える。また、情報処理装置100は、例えば、データの伝送路としてのバス166で各構成要素間を接続する。
[Hardware Configuration Example of Information Processing Apparatus 100]
FIG. 13 is an explanatory diagram illustrating an example of a hardware configuration of the information processing apparatus 100 according to the present embodiment. The information processing apparatus 100 includes, for example, an MPU 150, a ROM 152, a RAM 154, a recording medium 156, an input / output interface 158, an operation input device 160, a display device 162, and a communication interface 164. In addition, the information processing apparatus 100 connects each component with a bus 166 as a data transmission path, for example.

MPU150は、例えば、MPU(Micro Processing Unit)などの演算回路で構成される、1または2以上のプロセッサや、各種処理回路などで構成され、情報処理装置100全体を制御する制御部104として機能する。また、MPU150は、情報処理装置100において、例えば、後述する処理部110の役目を果たす。なお、処理部110は、処理を実現可能な専用の(または汎用の)回路で構成されていてもよい。   The MPU 150 includes, for example, one or more processors configured with arithmetic circuits such as an MPU (Micro Processing Unit), various processing circuits, and the like, and functions as the control unit 104 that controls the entire information processing apparatus 100. . Further, the MPU 150 plays a role of, for example, the processing unit 110 described later in the information processing apparatus 100. Note that the processing unit 110 may be configured by a dedicated (or general-purpose) circuit that can implement processing.

ROM152は、MPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。RAM154は、例えば、MPU150により実行されるプログラムなどを一時的に記憶する。   The ROM 152 stores programs used by the MPU 150, control data such as calculation parameters, and the like. The RAM 154 temporarily stores a program executed by the MPU 150, for example.

記録媒体156は、記憶部(図示せず)として機能し、例えば、センサ200ごとの対象世界モデルM1を示すデータや、携帯されている装置300ごとの対象世界モデルM2を示すデータ、対象となる空間全体における対象世界モデルM3を示すデータ、センサ200ごとの準備情報などの、本実施形態に係る情報処理方法に係るデータや、各種アプリケーションなど様々なデータを記憶する。ここで、記録媒体156としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリが挙げられる。また、記録媒体156は、情報処理装置100から着脱可能であってもよい。   The recording medium 156 functions as a storage unit (not shown), for example, data indicating the target world model M1 for each sensor 200, data indicating the target world model M2 for each portable device 300, and the target. Various data such as data related to the information processing method according to the present embodiment, such as data indicating the target world model M3 in the entire space, preparation information for each sensor 200, and various applications are stored. Here, examples of the recording medium 156 include a magnetic recording medium such as a hard disk and a non-volatile memory such as a flash memory. Further, the recording medium 156 may be detachable from the information processing apparatus 100.

入出力インタフェース158は、例えば、操作入力デバイス160や、表示デバイス162を接続する。操作入力デバイス160は、操作部(図示せず)として機能し、また、表示デバイス162は、表示部(図示せず)として機能する。ここで、入出力インタフェース158としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路などが挙げられる。   The input / output interface 158 connects, for example, the operation input device 160 and the display device 162. The operation input device 160 functions as an operation unit (not shown), and the display device 162 functions as a display unit (not shown). Here, examples of the input / output interface 158 include a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (High-Definition Multimedia Interface) (registered trademark) terminal, and various processing circuits. .

また、操作入力デバイス160は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。操作入力デバイス160としては、例えば、ボタンや、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。   For example, the operation input device 160 is provided on the information processing apparatus 100 and is connected to the input / output interface 158 inside the information processing apparatus 100. Examples of the operation input device 160 include a button, a direction key, a rotary selector such as a jog dial, or a combination thereof.

また、表示デバイス162は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。表示デバイス162としては、例えば、液晶ディスプレイ(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescence Display。または、OLEDディスプレイ(Organic Light Emitting Diode Display)ともよばれる。)などが挙げられる。   For example, the display device 162 is provided on the information processing apparatus 100 and is connected to the input / output interface 158 inside the information processing apparatus 100. Examples of the display device 162 include a liquid crystal display (Liquid Crystal Display), an organic EL display (Organic Electro-Luminescence Display, or an OLED display (Organic Light Emitting Diode Display)), and the like.

なお、入出力インタフェース158が、情報処理装置100の外部装置としての外部操作入力デバイス(例えば、キーボードやマウスなど)や外部表示デバイスなどの、外部デバイスと接続することも可能であることは、言うまでもない。また、表示デバイス162は、例えばタッチパネルなど、表示とユーザ操作とが可能なデバイスであってもよい。   It goes without saying that the input / output interface 158 can be connected to an external device such as an external operation input device (for example, a keyboard or a mouse) as an external device of the information processing apparatus 100 or an external display device. Yes. The display device 162 may be a device capable of display and user operation, such as a touch panel.

通信インタフェース164は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、センサ200や携帯されている装置300などの外部装置と、無線または有線で通信を行うための通信部102として機能する。ここで、通信インタフェース164としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)などが挙げられる。   The communication interface 164 is a communication unit included in the information processing apparatus 100 and communicates with an external device such as the sensor 200 or the portable device 300 wirelessly or via a network (or directly). It functions as the communication unit 102 for this. Here, examples of the communication interface 164 include a communication antenna and an RF (Radio Frequency) circuit (wireless communication), an IEEE 802.15.1 port and a transmission / reception circuit (wireless communication), an IEEE 802.11 port and a transmission / reception circuit (wireless communication). Or a LAN (Local Area Network) terminal and a transmission / reception circuit (wired communication).

情報処理装置100は、例えば図13に示す構成によって、本実施形態に係る情報処理方法に係る処理を行う。なお、本実施形態に係る情報処理装置100のハードウェア構成は、図13に示す構成に限られない。   The information processing apparatus 100 performs processing related to the information processing method according to the present embodiment, for example, with the configuration illustrated in FIG. 13. Note that the hardware configuration of the information processing apparatus 100 according to the present embodiment is not limited to the configuration illustrated in FIG. 13.

例えば、情報処理装置100は、接続されている外部の通信デバイスを介して外部装置などと通信を行う場合には、通信インタフェース164を備えていなくてもよい。また、通信インタフェース164は、複数の通信方式によって、1または2以上の外部装置と通信を行うことが可能な構成であってもよい。   For example, the information processing apparatus 100 may not include the communication interface 164 when communicating with an external apparatus or the like via a connected external communication device. The communication interface 164 may be configured to be able to communicate with one or more external devices by a plurality of communication methods.

また、情報処理装置100は、例えば、記録媒体156や、操作入力デバイス160、表示デバイス162を備えない構成をとることが可能である。   Further, the information processing apparatus 100 can be configured not to include the recording medium 156, the operation input device 160, and the display device 162, for example.

また、例えば、図13に示す構成(または変形例に係る構成)は、1、または2以上のIC(Integrated Circuit)で実現されてもよい。   Further, for example, the configuration shown in FIG. 13 (or a configuration according to a modification) may be realized by one or two or more ICs (Integrated Circuits).

再度図12を参照して、情報処理装置100の構成の一例について説明する。通信部102は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、センサ200や携帯されている装置300などの外部装置と、無線または有線で通信を行う。また、通信部102は、例えば制御部104により通信が制御される。   With reference to FIG. 12 again, an example of the configuration of the information processing apparatus 100 will be described. The communication unit 102 is a communication unit included in the information processing apparatus 100, and communicates with an external device such as the sensor 200 or the portable device 300 wirelessly or via a network (or directly). . The communication of the communication unit 102 is controlled by the control unit 104, for example.

ここで、通信部102としては、例えば、通信アンテナおよびRF回路や、LAN端子および送受信回路などが挙げられるが、通信部102の構成は、上記に限られない。例えば、通信部102は、USB端子および送受信回路などの通信を行うことが可能な任意の規格に対応する構成や、ネットワークを介して外部装置と通信可能な任意の構成をとることができる。また、通信部102は、複数の通信方式によって、1または2以上の外部装置と通信を行うことが可能な構成であってもよい。   Here, examples of the communication unit 102 include a communication antenna and an RF circuit, a LAN terminal, and a transmission / reception circuit, but the configuration of the communication unit 102 is not limited to the above. For example, the communication unit 102 can have a configuration corresponding to an arbitrary standard capable of performing communication such as a USB terminal and a transmission / reception circuit, or an arbitrary configuration capable of communicating with an external device via a network. Further, the communication unit 102 may be configured to be able to communicate with one or more external devices by a plurality of communication methods.

制御部104は、例えばMPUなどで構成され、情報処理装置100全体を制御する役目を果たす。また、制御部104は、例えば、処理部110を備え、本実施形態に係る情報処理方法に係る処理を主導的に行う役目を果たす。   The control unit 104 is configured by, for example, an MPU and plays a role of controlling the entire information processing apparatus 100. In addition, the control unit 104 includes, for example, a processing unit 110 and plays a role of leading the processing related to the information processing method according to the present embodiment.

処理部110は、上記準備情報を生成する処理を主導的に行う役目を果たし、センサ200から取得される第1の対象に関する第1の出力情報と、携帯されている装置300から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う。処理部110は、例えば、センサ200から取得される第1の対象に関する第1の出力情報と、携帯されている装置300から取得される、第1の対象と関連する第2の対象に関する第2の出力情報とに基づいて、準備情報を修正する。   The processing unit 110 plays a role of leading the process of generating the preparation information, and includes first output information regarding the first target acquired from the sensor 200 and the first output acquired from the portable device 300. Based on the 2nd output information regarding 2 object, the process which produces | generates preparation information is performed. The processing unit 110, for example, first output information related to the first target acquired from the sensor 200 and second related to the second target related to the first target acquired from the portable device 300. The preparation information is corrected based on the output information.

また、処理部110は、本実施形態に係る所定の処理をさらに行ってもよい。処理部110は、例えば、上記(I)の処理(変換処理)と上記(II)の処理(実行制御処理)との一方または双方を、本実施形態に係る所定の処理として行う。   The processing unit 110 may further perform a predetermined process according to the present embodiment. For example, the processing unit 110 performs one or both of the process (I) (conversion process) and the process (II) (execution control process) as the predetermined process according to the present embodiment.

制御部104は、例えば、処理部110を備えることによって、本実施形態に係る情報処理方法に係る処理(例えば、上記準備情報を生成する処理、および上記所定の処理)を主導的に行う。   The control unit 104 includes, for example, the processing unit 110, thereby leading to processing related to the information processing method according to the present embodiment (for example, processing for generating the preparation information and the predetermined processing).

情報処理装置100は、例えば図12に示す構成によって、本実施形態に係る情報処理方法に係る処理(例えば、上記準備情報を生成する処理、および上記所定の処理)を行う。   The information processing apparatus 100 performs processing (for example, processing for generating the preparation information and the predetermined processing) according to the information processing method according to the present embodiment with the configuration illustrated in FIG. 12, for example.

したがって、情報処理装置100は、例えば図12に示す構成によって、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。   Therefore, the information processing apparatus 100 can improve user convenience when a sensor that senses a predetermined range of space is used, for example, with the configuration shown in FIG.

また、例えば図12に示す構成によって、情報処理装置100は、上述したような本実施形態に係る情報処理方法に係る処理が行われることにより奏される効果を、奏することができる。   Further, for example, with the configuration illustrated in FIG. 12, the information processing apparatus 100 can achieve the effect that is achieved by performing the processing related to the information processing method according to the present embodiment as described above.

なお、本実施形態に係る情報処理装置の構成は、図12に示す構成に限られない。   Note that the configuration of the information processing apparatus according to the present embodiment is not limited to the configuration illustrated in FIG.

例えば、本実施形態に係る情報処理装置は、図12に示す処理部110を、制御部104とは個別に備える(例えば、プロセッサなどの別の処理回路で実現する)ことができる。   For example, the information processing apparatus according to the present embodiment can include the processing unit 110 illustrated in FIG. 12 separately from the control unit 104 (for example, realized by another processing circuit such as a processor).

また、上述したように、“上記準備情報を生成する処理”や“上記準備情報を生成する処理、および上記所定の処理”は、便宜上、本実施形態に係る情報処理方法に係る処理を切り分けたものである。よって、本実施形態に係る情報処理方法に係る処理を実現するための構成は、図12に示す処理部110に限られず、本実施形態に係る情報処理方法に係る処理の切り分け方に応じた構成をとることが可能である。   In addition, as described above, “the process for generating the preparation information” and “the process for generating the preparation information and the predetermined process” are separated from the processes related to the information processing method according to the present embodiment for convenience. Is. Therefore, the configuration for realizing the processing according to the information processing method according to the present embodiment is not limited to the processing unit 110 illustrated in FIG. 12, and the configuration according to the method of dividing the processing according to the information processing method according to the present embodiment. It is possible to take

また、例えば、通信部102と同様の機能、構成を有する外部の通信デバイスを介して外部装置と通信を行う場合には、本実施形態に係る情報処理装置は、通信部102を備えていなくてもよい。   Further, for example, when communicating with an external device via an external communication device having the same function and configuration as the communication unit 102, the information processing apparatus according to the present embodiment does not include the communication unit 102. Also good.

また、本実施形態に係る情報処理装置は、例えば、図12に示す処理部110が上記所定の処理を行わない構成であってもよい。   Further, the information processing apparatus according to the present embodiment may be configured such that, for example, the processing unit 110 illustrated in FIG. 12 does not perform the predetermined process.

例えば、図12に示す処理部110が上記所定の処理を行わない構成であっても、本実施形態に係る情報処理装置は、上記準備情報を生成する処理を行うことが可能であるので、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。また、例えば、図12に示す処理部110が上記所定の処理を行わない構成であっても、本実施形態に係る情報処理装置は、上記準備情報を生成する処理が行われることにより奏される効果を、奏することができる。   For example, even if the processing unit 110 illustrated in FIG. 12 does not perform the predetermined process, the information processing apparatus according to the present embodiment can perform the process of generating the preparation information. When a sensor that senses the predetermined range is used, the convenience of the user can be improved. For example, even if the processing unit 110 illustrated in FIG. 12 does not perform the predetermined process, the information processing apparatus according to the present embodiment is achieved by performing the process of generating the preparation information. An effect can be produced.

以上、本実施形態として、情報処理装置を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、PC(Personal Computer)やサーバなどのコンピュータや、空間に設置されている本実施形態に係るセンサ、携帯電話やスマートフォンなどの通信装置、タブレット型の装置など、本実施形態に係る情報処理方法に係る処理を行うことが可能な、様々な機器に適用することができる。また、本実施形態は、例えば、上記のような機器に組み込むことが可能な、処理ICに適用することもできる。   As described above, the information processing apparatus has been described as the present embodiment, but the present embodiment is not limited to such a form. The present embodiment is, for example, a computer such as a PC (Personal Computer) or a server, a sensor according to the present embodiment installed in a space, a communication device such as a mobile phone or a smartphone, or a tablet device. The present invention can be applied to various devices that can perform the processing related to the information processing method. In addition, the present embodiment can be applied to a processing IC that can be incorporated in the above-described device, for example.

また、本実施形態に係る情報処理装置は、例えばクラウドコンピューティングなどのように、ネットワークへの接続(または各装置間の通信)を前提とした、1または2以上の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置により本実施形態に係る情報処理方法に係る処理を行う情報処理システムとして実現することも可能である。   In addition, the information processing apparatus according to the present embodiment is applied to a system including one or two or more apparatuses that are premised on connection to a network (or communication between apparatuses) such as cloud computing. May be. That is, the information processing apparatus according to the present embodiment described above can be realized as an information processing system that performs processing according to the information processing method according to the present embodiment using a plurality of apparatuses, for example.

(本実施形態に係るプログラム)
コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(例えば、“上記準備情報を生成する処理”や、“上記準備情報を生成する処理、および上記所定の処理”など、本実施形態に係る情報処理方法に係る処理を実行することが可能なプログラム)が、コンピュータにおいてプロセッサなどにより実行されることによって、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。
(Program according to this embodiment)
A program for causing a computer to function as the information processing apparatus according to the present embodiment (for example, “the process for generating the preparation information”, “the process for generating the preparation information, and the predetermined process”). When a sensor that senses a predetermined range of space is used by executing a program that can execute a process related to an information processing method according to an embodiment by a processor or the like in a computer, the convenience of the user Can be improved.

また、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラムが、コンピュータにおいてプロセッサなどにより実行されることによって、上述した本実施形態に係る情報処理方法に係る処理によって奏される効果を、奏することができる。   In addition, an effect produced by the processing related to the information processing method according to the above-described embodiment by executing a program for causing the computer to function as the information processing apparatus according to the present embodiment by a processor or the like in the computer. Can be played.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

例えば、上記では、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(コンピュータプログラム)が提供されることを示したが、本実施形態は、さらに、上記プログラムを記憶させた記録媒体も併せて提供することができる。   For example, in the above description, it has been shown that a program (computer program) for causing a computer to function as the information processing apparatus according to the present embodiment is provided. However, the present embodiment further includes a recording in which the program is stored. A medium can also be provided.

上述した構成は、本実施形態の一例を示すものであり、当然に、本開示の技術的範囲に属するものである。   The configuration described above shows an example of the present embodiment, and naturally belongs to the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。   Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う処理部を備え、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置。
(2)
前記準備情報は、前記センサと所定の座標系との対応づけを制御するための情報である、(1)に記載の情報処理装置。
(3)
前記準備情報は、前記第3の出力情報に基づいて得られる対象の位置情報を、前記所定の座標系における座標値へ変換する処理に利用される情報である、(2)に記載の情報処理装置。
(4)
前記第1の対象と前記第2の対象とは、関連する対象である、(1)〜(3)のいずれか1つに記載の情報処理装置。
(5)
前記第1の対象の動きに応じて前記第2の対象が動く、(4)に記載の情報処理装置。
(6)
前記準備情報を生成する処理は、前記準備情報を修正する処理である、(1)〜(5)のいずれか1つに記載の情報処理装置。
(7)
前記処理部は、前記第1の出力情報に基づく第1の対象の検出結果と、前記第2の出力情報に基づく第2の対象の検出結果とに基づいて、前記準備情報を修正する、(6)に記載の情報処理装置。
(8)
前記処理部は、前記第1の対象の検出結果である前記第1の対象の動き情報と、前記第2の対象の検出結果ある前記第2の対象の動き情報とを比較し、動きの比較結果に基づいて前記準備情報を修正する、(7)に記載の情報処理装置。
(9)
前記動きの比較結果に基づく前記準備情報の修正は、前記第1の出力情報に基づく前記第1の対象の位置の位置ずれの修正である、(8)に記載の情報処理装置。
(10)
前記動きの比較結果に基づく前記準備情報の修正は、前記第1の対象の動き情報に対応する時間と前記第2の対象の動き情報に対応する時間との時間ずれの修正をさらに含む、(9)に記載の情報処理装置。
(11)
前記処理部は、前記第1の対象の検出結果である前記第1の対象に対応する空間座標と、前記第2の対象の検出結果である前記第2の対象に対応する空間座標とを比較し、空間座標の比較結果に基づいて前記準備情報を修正する、(7)〜(10)のいずれか1つに記載の情報処理装置。
(12)
前記処理部は、空間座標の比較結果に基づく前記準備情報の修正に係る修正パラメータを、前記携帯されている装置のユーザを示す識別情報と対応付けて記録させる、(11)に記載の情報処理装置。
(13)
前記処理部は、前記識別情報が取得された場合には、取得された前記識別情報と対応付けられている前記修正パラメータによって、前記準備情報を修正する、(12)に記載の情報処理装置。
(14)
前記処理部は、前記準備情報を生成する処理を、非定期的に行う、(1)〜(13)のいずれか1つに記載の情報処理装置。
(15)
前記処理部は、前記準備情報を生成する処理を、ユーザの所定の動作が検出されたときに行う、(1)〜(14)のいずれか1つに記載の情報処理装置。
(16)
前記処理部は、新たな前記センサが検出された場合、または、既存の前記センサの位置の移動が検出された場合には、前記所定の動作を行わせるための通知を制御する、(15)に記載の情報処理装置。
(17)
前記第1の対象と前記第2の対象とは、手または腕である、(5)に記載の情報処理装置。
(18)
前記携帯されている装置は、手または腕に装着される装置である、(1)〜(17)のいずれか1つに記載の情報処理装置。
(19)
前記センサは、イメージセンサである、(1)〜(18)のいずれか1つに記載の情報処理装置。
(20)
実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップを有し、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置により実行される情報処理方法。
(21)
実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップをコンピュータに実行させ、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、プログラム。
(22)
前記処理部は、前記第3の出力情報と前記準備情報とに基づいて、所定の処理をさらに行う、(1)〜(19)のいずれか1つに記載の情報処理装置。
(23)
前記携帯されている装置から取得される前記第2の出力情報は、モーションセンサの出力情報である、(1)〜(19)、(22)のいずれか1つに記載の情報処理装置。
The following configurations also belong to the technical scope of the present disclosure.
(1)
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And a processing unit for generating preparation information,
The information processing apparatus, wherein the preparation information is used for generating operation information based on third output information acquired from the sensor.
(2)
The information processing apparatus according to (1), wherein the preparation information is information for controlling association between the sensor and a predetermined coordinate system.
(3)
The information for information processing according to (2), wherein the preparation information is information used for processing for converting target position information obtained based on the third output information into coordinate values in the predetermined coordinate system. apparatus.
(4)
The information processing apparatus according to any one of (1) to (3), wherein the first object and the second object are related objects.
(5)
The information processing apparatus according to (4), wherein the second object moves according to the movement of the first object.
(6)
The process for generating the preparation information is the information processing apparatus according to any one of (1) to (5), wherein the preparation information is a process for correcting the preparation information.
(7)
The processing unit corrects the preparation information based on a detection result of a first object based on the first output information and a detection result of a second object based on the second output information. The information processing apparatus according to 6).
(8)
The processing unit compares the motion information of the first target that is the detection result of the first target with the motion information of the second target that is the detection result of the second target, and compares the motion The information processing apparatus according to (7), wherein the preparation information is corrected based on a result.
(9)
The information processing apparatus according to (8), wherein the correction of the preparation information based on the movement comparison result is correction of a positional shift of the position of the first target based on the first output information.
(10)
The correction of the preparation information based on the motion comparison result further includes correction of a time lag between a time corresponding to the motion information of the first target and a time corresponding to the motion information of the second target. The information processing apparatus according to 9).
(11)
The processing unit compares the spatial coordinates corresponding to the first object, which is the detection result of the first object, and the spatial coordinates corresponding to the second object, which is the detection result of the second object. Then, the information processing apparatus according to any one of (7) to (10), wherein the preparation information is corrected based on a comparison result of spatial coordinates.
(12)
The information processing unit according to (11), wherein the processing unit records a correction parameter related to the correction of the preparation information based on a comparison result of spatial coordinates in association with identification information indicating a user of the portable device. apparatus.
(13)
The information processing apparatus according to (12), wherein when the identification information is acquired, the processing unit corrects the preparation information with the correction parameter associated with the acquired identification information.
(14)
The information processing apparatus according to any one of (1) to (13), wherein the processing unit performs the process of generating the preparation information irregularly.
(15)
The information processing apparatus according to any one of (1) to (14), wherein the processing unit performs the process of generating the preparation information when a user's predetermined operation is detected.
(16)
When the new sensor is detected or when the movement of the position of the existing sensor is detected, the processing unit controls notification for causing the predetermined operation to be performed (15) The information processing apparatus described in 1.
(17)
The information processing apparatus according to (5), wherein the first object and the second object are hands or arms.
(18)
The information processing apparatus according to any one of (1) to (17), wherein the portable device is a device worn on a hand or an arm.
(19)
The information processing apparatus according to any one of (1) to (18), wherein the sensor is an image sensor.
(20)
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And a step of performing processing for generating preparation information,
The information processing method executed by an information processing apparatus, wherein the preparation information is used to generate operation information based on third output information acquired from the sensor.
(21)
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And causing the computer to execute a step of generating the preparation information,
The preparation information is a program used for generating operation information based on third output information acquired from the sensor.
(22)
The information processing apparatus according to any one of (1) to (19), wherein the processing unit further performs a predetermined process based on the third output information and the preparation information.
(23)
The information processing apparatus according to any one of (1) to (19) and (22), wherein the second output information acquired from the portable apparatus is output information of a motion sensor.

100 情報処理装置
102 通信部
104 制御部
110 処理部
200、200A、200B センサ
300、300A、300B、300C 携帯されている装置
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 102 Communication part 104 Control part 110 Processing part 200, 200A, 200B Sensor 300, 300A, 300B, 300C Portable apparatus

Claims (21)

実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う処理部を備え、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置。
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And a processing unit for generating preparation information,
The information processing apparatus, wherein the preparation information is used for generating operation information based on third output information acquired from the sensor.
前記準備情報は、前記センサと所定の座標系との対応づけを制御するための情報である、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the preparation information is information for controlling association between the sensor and a predetermined coordinate system. 前記準備情報は、前記第3の出力情報に基づいて得られる対象の位置情報を、前記所定の座標系における座標値へ変換する処理に利用される情報である、請求項2に記載の情報処理装置。   The information processing according to claim 2, wherein the preparation information is information used for a process of converting position information of a target obtained based on the third output information into a coordinate value in the predetermined coordinate system. apparatus. 前記第1の対象と前記第2の対象とは、関連する対象である、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first object and the second object are related objects. 前記第1の対象の動きに応じて前記第2の対象が動く、請求項4に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the second object moves according to the movement of the first object. 前記準備情報を生成する処理は、前記準備情報を修正する処理である、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the process of generating the preparation information is a process of correcting the preparation information. 前記処理部は、前記第1の出力情報に基づく第1の対象の検出結果と、前記第2の出力情報に基づく第2の対象の検出結果とに基づいて、前記準備情報を修正する、請求項6に記載の情報処理装置。   The processing unit corrects the preparation information based on a detection result of a first object based on the first output information and a detection result of a second object based on the second output information. Item 7. The information processing device according to Item 6. 前記処理部は、前記第1の対象の検出結果である前記第1の対象の動き情報と、前記第2の対象の検出結果ある前記第2の対象の動き情報とを比較し、動きの比較結果に基づいて前記準備情報を修正する、請求項7に記載の情報処理装置。   The processing unit compares the motion information of the first target that is the detection result of the first target with the motion information of the second target that is the detection result of the second target, and compares the motion The information processing apparatus according to claim 7, wherein the preparation information is corrected based on a result. 前記動きの比較結果に基づく前記準備情報の修正は、前記第1の出力情報に基づく前記第1の対象の位置の位置ずれの修正である、請求項8に記載の情報処理装置。   The information processing apparatus according to claim 8, wherein the correction of the preparation information based on the movement comparison result is correction of a positional shift of the position of the first target based on the first output information. 前記動きの比較結果に基づく前記準備情報の修正は、前記第1の対象の動き情報に対応する時間と前記第2の対象の動き情報に対応する時間との時間ずれの修正をさらに含む、請求項9に記載の情報処理装置。   The correction of the preparation information based on the motion comparison result further includes correction of a time lag between a time corresponding to the motion information of the first target and a time corresponding to the motion information of the second target. Item 10. The information processing device according to Item 9. 前記処理部は、前記第1の対象の検出結果である前記第1の対象に対応する空間座標と、前記第2の対象の検出結果である前記第2の対象に対応する空間座標とを比較し、空間座標の比較結果に基づいて前記準備情報を修正する、請求項7に記載の情報処理装置。   The processing unit compares the spatial coordinates corresponding to the first object, which is the detection result of the first object, and the spatial coordinates corresponding to the second object, which is the detection result of the second object. The information processing apparatus according to claim 7, wherein the preparation information is corrected based on a comparison result of spatial coordinates. 前記処理部は、空間座標の比較結果に基づく前記準備情報の修正に係る修正パラメータを、前記携帯されている装置のユーザを示す識別情報と対応付けて記録させる、請求項11に記載の情報処理装置。   The information processing according to claim 11, wherein the processing unit causes a correction parameter related to the correction of the preparation information based on a comparison result of spatial coordinates to be recorded in association with identification information indicating a user of the portable device. apparatus. 前記処理部は、前記識別情報が取得された場合には、取得された前記識別情報と対応付けられている前記修正パラメータによって、前記準備情報を修正する、請求項12に記載の情報処理装置。   The information processing apparatus according to claim 12, wherein, when the identification information is acquired, the processing unit corrects the preparation information with the correction parameter associated with the acquired identification information. 前記処理部は、前記準備情報を生成する処理を、非定期的に行う、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the processing unit performs the process of generating the preparation information irregularly. 前記処理部は、前記準備情報を生成する処理を、ユーザの所定の動作が検出されたときに行う、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the processing unit performs the process of generating the preparation information when a user's predetermined operation is detected. 前記処理部は、新たな前記センサが検出された場合、または、既存の前記センサの位置の移動が検出された場合には、前記所定の動作を行わせるための通知を制御する、請求項15に記載の情報処理装置。   The said processing part controls the notification for performing the said predetermined | prescribed operation | movement, when the said new sensor is detected or the movement of the position of the existing said sensor is detected. The information processing apparatus described in 1. 前記第1の対象と前記第2の対象とは、手または腕である、請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the first object and the second object are hands or arms. 前記携帯されている装置は、手または腕に装着される装置である、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the portable device is a device worn on a hand or an arm. 前記センサは、イメージセンサである、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the sensor is an image sensor. 実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップを有し、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置により実行される情報処理方法。
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And a step of performing processing for generating preparation information,
The information processing method executed by an information processing apparatus, wherein the preparation information is used to generate operation information based on third output information acquired from the sensor.
実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップをコンピュータに実行させ、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、プログラム。
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And causing the computer to execute a step of generating the preparation information,
The preparation information is a program used for generating operation information based on third output information acquired from the sensor.
JP2015074157A 2015-03-31 2015-03-31 Information processing device, information processing method, and program Pending JP2016194798A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2015074157A JP2016194798A (en) 2015-03-31 2015-03-31 Information processing device, information processing method, and program
PCT/JP2016/051222 WO2016157938A1 (en) 2015-03-31 2016-01-18 Information processing device, information processing method, and program
US15/560,005 US10359837B2 (en) 2015-03-31 2016-01-18 Information processing device and information processing method
EP16771824.6A EP3279768A4 (en) 2015-03-31 2016-01-18 Information processing device, information processing method, and program
CN201680017783.1A CN107407968B (en) 2015-03-31 2016-01-18 Information processing apparatus, information processing method, and program
US16/406,320 US10572003B2 (en) 2015-03-31 2019-05-08 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015074157A JP2016194798A (en) 2015-03-31 2015-03-31 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2016194798A true JP2016194798A (en) 2016-11-17

Family

ID=57323924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015074157A Pending JP2016194798A (en) 2015-03-31 2015-03-31 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2016194798A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151886A (en) * 2017-03-13 2018-09-27 オムロン株式会社 Environment sensor
JP2018151882A (en) * 2017-03-13 2018-09-27 オムロン株式会社 Environment sensor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018151886A (en) * 2017-03-13 2018-09-27 オムロン株式会社 Environment sensor
JP2018151882A (en) * 2017-03-13 2018-09-27 オムロン株式会社 Environment sensor
US11022624B2 (en) 2017-03-13 2021-06-01 Omron Corporation Environmental sensor

Similar Documents

Publication Publication Date Title
JP6424601B2 (en) Display control method, information processing program, and information processing apparatus
EP3559789B1 (en) Magnetic interference detection and correction
US10572003B2 (en) Information processing device and information processing method
TW201346640A (en) Image processing device, and computer program product
CN109313502B (en) Tap event location using selection device
JP2011170538A (en) Information processor, information processing method and program
US10140002B2 (en) Information processing apparatus, information processing method, and program
US10296096B2 (en) Operation recognition device and operation recognition method
JP6911834B2 (en) Information processing equipment, information processing methods, and programs
WO2018083910A1 (en) Information processing device, information processing method, and recording medium
KR20170076534A (en) Virtual reality interface apparatus and method for controlling the apparatus
JP2016194755A (en) Information processing device, information processing method, and program
JP2016162079A (en) Display control method, display control program, and information processing apparatus
CN106663412B (en) Information processing apparatus, information processing method, and program
US20230054973A1 (en) Information processing apparatus, information processing method, and information processing program
JP6447521B2 (en) Information processing apparatus, information processing method, and program
US10321008B2 (en) Presentation control device for controlling presentation corresponding to recognized target
JP2016194798A (en) Information processing device, information processing method, and program
WO2017047233A1 (en) Information processing apparatus, information processing method, and program
JP2023111956A (en) Object posture control program and information processing device
JP2016192014A (en) Information processing device, information processing method, and program
KR101719454B1 (en) Method and apparatus for generating keyboard typing motion
JP6471694B2 (en) Information processing apparatus, information processing method, program, and information processing system
TWI737068B (en) Motion tracking system and method
CN113316753B (en) Direct manipulation of display devices using wearable computing devices