JP2016194798A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2016194798A JP2016194798A JP2015074157A JP2015074157A JP2016194798A JP 2016194798 A JP2016194798 A JP 2016194798A JP 2015074157 A JP2015074157 A JP 2015074157A JP 2015074157 A JP2015074157 A JP 2015074157A JP 2016194798 A JP2016194798 A JP 2016194798A
- Authority
- JP
- Japan
- Prior art keywords
- information
- information processing
- sensor
- processing apparatus
- preparation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to an information processing apparatus, an information processing method, and a program.
カメラ間の位置関係のキャリブレーションを行う技術が開発されている。発光球体をキャリブレーション治具として用いてF(Fundamental)行列を算出することによって、カメラ間の位置関係のキャリブレーションを行う技術としては、例えば下記の特許文献1に記載の技術が挙げられる。 A technique for calibrating the positional relationship between cameras has been developed. As a technique for calibrating the positional relationship between cameras by calculating an F (Fundamental) matrix using a light emitting sphere as a calibration jig, for example, a technique described in Patent Document 1 below can be cited.
例えば、ユーザなどのオブジェクトの動きの認識結果に基づいて、アプリケーションの実行などの操作を可能とするシステムでは、実空間の所定の範囲をセンシングするセンサ、すなわち、オブジェクトの動きを認識することが可能なセンサ(認識機器)のキャリブレーションをより正確に行うことが、操作感を向上させる上で重要となる。 For example, in a system that enables operations such as application execution based on the recognition result of the movement of an object such as a user, a sensor that senses a predetermined range in real space, that is, the movement of the object can be recognized In order to improve the operational feeling, it is important to calibrate the correct sensor (recognition device) more accurately.
センサのキャリブレーションは、例えば、特許文献1に記載の発光球体や、キャリブレーションボードなどの専用のキャリブレーション治具を用いることなどによって、実現することが可能である。ここで、例えば、新たなセンサが追加された場合や、キャリブレーション済みのセンサが移動した場合など、環境が変化した場合には、センサのキャリブレーションを再度行うことが望ましい。しかしながら、上記のようにキャリブレーションボードなどの専用のキャリブレーション治具がなければセンサのキャリブレーションを行うことができない場合には、再度のセンサのキャリブレーションを、容易に行うことができない恐れがある。 Sensor calibration can be realized, for example, by using a light emitting sphere described in Patent Document 1 or a dedicated calibration jig such as a calibration board. Here, for example, when a new sensor is added or a calibrated sensor moves, or when the environment changes, it is desirable to calibrate the sensor again. However, if the sensor cannot be calibrated without a dedicated calibration jig such as a calibration board as described above, the sensor may not be easily calibrated again. .
本開示では、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。 The present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of improving user convenience when a sensor that senses a predetermined range of space is used. .
本開示によれば、実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う処理部を備え、
上記準備情報は、上記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置が提供される。
According to the present disclosure, the first output information related to the first target acquired from the sensor that senses a predetermined range of the real space and the second related to the second target acquired from the device carried by the user. And a processing unit that performs processing for generating preparation information based on the output information of
An information processing apparatus is provided in which the preparation information is used to generate operation information based on third output information acquired from the sensor.
また、本開示によれば、実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップを有し、上記準備情報は、上記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置により実行される情報処理方法が提供される。 Moreover, according to this indication, it is related with the 1st output information regarding the 1st object acquired from the sensor which senses the predetermined range of real space, and the 2nd object acquired from the apparatus carried by the user. A step of generating preparation information based on the second output information, and the preparation information is used to generate operation information based on the third output information acquired from the sensor. An information processing method executed by the information processing apparatus is provided.
また、本開示によれば、実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップをコンピュータに実行させ、上記準備情報は、上記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、プログラム。 Moreover, according to this indication, it is related with the 1st output information regarding the 1st object acquired from the sensor which senses the predetermined range of real space, and the 2nd object acquired from the apparatus carried by the user. In order to cause the computer to execute a step of generating preparation information based on the second output information, and the preparation information generates operation information based on the third output information acquired from the sensor A program used for
本開示によれば、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。 According to the present disclosure, when a sensor that senses a predetermined range of space is used, it is possible to improve user convenience.
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握されうる他の効果が奏されてもよい。 Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、以下では、下記に示す順序で説明を行う。
1.本実施形態に係る情報処理方法
2.本実施形態に係る情報処理装置
3.本実施形態に係るプログラム
In the following, description will be given in the following order.
1. 1. Information processing method according to this embodiment 2. Information processing apparatus according to this embodiment Program according to this embodiment
(本実施形態に係る情報処理方法)
本実施形態に係る情報処理装置の構成について説明する前に、まず、本実施形態に係る情報処理方法について説明する。以下では、本実施形態に係る情報処理方法に係る処理を、本実施形態に係る情報処理装置が行う場合を例に挙げて、本実施形態に係る情報処理方法について説明する。
(Information processing method according to this embodiment)
Before describing the configuration of the information processing apparatus according to the present embodiment, first, the information processing method according to the present embodiment will be described. Hereinafter, the information processing method according to the present embodiment will be described by taking as an example the case where the information processing apparatus according to the present embodiment performs the processing according to the information processing method according to the present embodiment.
[1]本実施形態に係る情報処理方法の概要
ユーザの手や腕などの動きの認識結果に基づいて、アプリケーションの実行などの操作を可能とするシステムでは、UX(User Experience)を向上させるために、実空間の所定の範囲をセンシングするセンサが、空間内に配置される。
[1] Outline of Information Processing Method According to the Present Embodiment In a system that enables operations such as application execution based on the recognition result of the movement of the user's hand, arm, etc., in order to improve UX (User Experience) In addition, a sensor for sensing a predetermined range in the real space is disposed in the space.
ここで、上記のようなシステムを用いるユーザのUXを向上させるための一の方法としては、センサの検出精度をより高めることが挙げられる。また、センサの検出精度をより高めるための一の方法としては、例えば、センサが新たに設置された場合や、センサが設置されている位置が移動した場合などにおいて、センサのキャリブレーションを行うことが挙げられる。 Here, as one method for improving the user's UX using the system as described above, the detection accuracy of the sensor can be further increased. In addition, as one method for improving the detection accuracy of the sensor, for example, when the sensor is newly installed or when the position where the sensor is installed is moved, the sensor is calibrated. Is mentioned.
センサのキャリブレーションは、例えば、特許文献1に記載の発光球体や、キャリブレーションボードなどの専用のキャリブレーション治具を用いることなどによって、実現することが可能である。 Sensor calibration can be realized, for example, by using a light emitting sphere described in Patent Document 1 or a dedicated calibration jig such as a calibration board.
しかしながら、例えば、センサが新たに設置されるごとや、センサが設置されている位置が移動したごとなど、センサのキャリブレーションを行うことが望ましい事態が生じるごとに、上記のような専用のキャリブレーション治具を用いたセンサのキャリブレーションが行われる場合には、ユーザに過度の負担をかける恐れがある。また、センサのキャリブレーションを行うことが望ましい事態が生じるごとに、上記のような専用のキャリブレーション治具を用いたセンサのキャリブレーションが行われる場合には、専用のキャリブレーション治具がなければセンサのキャリブレーションを行うことができないので、再度のセンサのキャリブレーションを、容易に行うことができない恐れがある。 However, each time a new sensor is installed, or every time it is desirable to calibrate the sensor, such as every time the position where the sensor is installed, the dedicated calibration as described above occurs. When calibration of a sensor using a jig is performed, there is a risk of placing an excessive burden on the user. In addition, if the sensor calibration using the dedicated calibration jig as described above is performed every time it is desirable to calibrate the sensor, there is no dedicated calibration jig. Since the sensor cannot be calibrated, there is a possibility that the sensor cannot be easily calibrated again.
そこで、本実施形態に係る情報処理装置は、実空間の所定の範囲をセンシングするセンサから取得される出力情報と、ユーザにより携帯されている装置(以下、「携帯されている装置」と示す場合がある。)から取得される出力情報とを利用して、当該センサのキャリブレーションを行う。 Therefore, the information processing apparatus according to the present embodiment indicates output information acquired from a sensor that senses a predetermined range in real space and a device that is carried by the user (hereinafter referred to as “portable device”). The sensor is calibrated using the output information obtained from (2).
より具体的には、本実施形態に係る情報処理装置は、センサから取得される第1の対象に関する出力情報と、携帯されている装置から取得される第2の対象に関する出力情報とを利用して、当該センサのキャリブレーションを行う。 More specifically, the information processing apparatus according to the present embodiment uses output information related to the first target acquired from the sensor and output information related to the second target acquired from the portable device. Then, the sensor is calibrated.
ここで、第1の対象とは、センサから取得される出力情報に基づき検出される対象である。本実施形態に係る第1の対象としては、例えば、上記携帯されている装置のユーザの手や腕など、本実施形態に係るセンサによって検出することが可能な任意の対象が挙げられる。 Here, the first target is a target detected based on output information acquired from the sensor. Examples of the first target according to the present embodiment include any target that can be detected by the sensor according to the present embodiment, such as the hand and arm of the user of the portable device.
また、第2の対象とは、携帯されている装置から取得される出力情報に基づき検出される対象である。第2の対象の一例については、後述する。 The second target is a target that is detected based on output information acquired from a portable device. An example of the second target will be described later.
本実施形態に係る情報処理装置は、例えば、第1の対象が動いたときに第2の対象も対応して動くなど、第1の対象と第2の対象とが関連する対象である場合に、センサから取得される第1の対象に関する出力情報と、携帯されている装置から取得される第2の対象に関する出力情報とを利用して、当該センサのキャリブレーションを行う。本実施形態に係る情報処理装置における、第1の対象と第2の対象とが関連する対象であるかを判定する処理の一例については、後述する。 The information processing apparatus according to the present embodiment, for example, when the first target and the second target are related targets, such as when the first target moves, the second target also moves correspondingly. The sensor is calibrated using the output information related to the first target acquired from the sensor and the output information related to the second target acquired from the portable device. An example of processing for determining whether the first target and the second target are related in the information processing apparatus according to the present embodiment will be described later.
以下では、センサから取得される第1の対象に関する出力情報を「第1の出力情報」と示し、携帯されている装置から取得される第2の対象に関する出力情報を「第2の出力情報」と示す。 In the following, the output information related to the first target acquired from the sensor will be referred to as “first output information”, and the output information related to the second target acquired from the portable device will be referred to as “second output information”. It shows.
本実施形態に係るセンサとしては、例えば、ステレオイメージセンサを構成するイメージセンサなどの画像センサや、TOF(Time-Of-Flight)方式などの任意の方式のデプスセンサが挙げられる。また、本実施形態に係るセンサは、例えば、空間をセンシング範囲とし、空間内におけるジェスチャの認識に用いることが可能な出力情報を出力することが可能な、任意のセンサであってもよい。つまり、本実施形態に係るセンサは、例えば、ユーザの操作指示をセンシングするためのセンサである。以下で示すユースケースでは、本実施形態に係るセンサがステレオイメージセンサを構成する画像センサである場合を、例に挙げる。 Examples of the sensor according to the present embodiment include an image sensor such as an image sensor constituting a stereo image sensor and a depth sensor of an arbitrary system such as a TOF (Time-Of-Flight) system. In addition, the sensor according to the present embodiment may be an arbitrary sensor that can output, for example, output information that can be used for recognition of a gesture in a space with a space as a sensing range. That is, the sensor according to the present embodiment is a sensor for sensing a user operation instruction, for example. In the use case shown below, a case where the sensor according to the present embodiment is an image sensor constituting a stereo image sensor will be described as an example.
本実施形態に係るセンサから取得される出力情報(例えば、第1の出力情報や、後述する第3の出力情報)としては、例えば、撮像された画像データや、デプス値を示すデータなど、センシング範囲内の対象の位置情報を得ることが可能なデータが挙げられる。 As output information (for example, first output information or third output information to be described later) acquired from the sensor according to the present embodiment, sensing such as captured image data or data indicating a depth value, for example. Data that can obtain position information of an object within a range is included.
また、本実施形態に係る携帯されている装置としては、例えば、ユーザの身体に装着して用いられるウェアラブル装置や、ユーザが手に持って用いる装置、ユーザが身に着けている鞄や衣服などに収められている装置など、ユーザが直接的または間接的に身に付けている、任意の装置が挙げられる。本実施形態に係るウェアラブル装置としては、例えば、“時計型の装置”や“指輪型、ブレスレット型、ネイル型などのアクセサリ型の装置”のような手または腕に装着される装置や、“眼鏡型の装置”、“服型、靴型、帽子型の装置”などが挙げられる。 Moreover, as a portable device according to the present embodiment, for example, a wearable device used by being worn on the user's body, a device used by the user to hold in hand, a bag or clothes worn by the user, etc. And any device that the user wears directly or indirectly. Examples of the wearable device according to the present embodiment include a device worn on the hand or arm, such as a “watch-type device” or an “accessory-type device such as a ring type, bracelet type, or nail type”, or “glasses”. Type device "," cloth type, shoe type, hat type device "and the like.
本実施形態に係る携帯されている装置から取得される第2の出力情報としては、例えば下記の(a)〜(c)に示す対象の検出結果を得ることが可能なデータが挙げられる。 As 2nd output information acquired from the portable apparatus which concerns on this embodiment, the data which can obtain the detection result of the object shown to the following (a)-(c), for example are mentioned.
(a)携帯されている装置の移動量に関する検出結果(過去、現在の動きに対応する検出結果)
携帯されている装置の移動量に関する検出結果としては、例えば、移動量ベクトルが挙げられる。
(A) Detection result regarding the amount of movement of the portable device (detection result corresponding to past and present movement)
As a detection result related to the movement amount of the portable device, for example, a movement amount vector can be cited.
上記(a)に係る携帯されている装置から取得される第2の出力情報としては、例えば、本実施形態に係る携帯されている装置が備えている携帯されている装置の動きを検出することが可能な任意のモーションセンサ(例えば加速度センサやジャイロセンサなど)の検出値を示すデータや、携帯されている装置に接続されている外部のセンサの検出値を示すデータなど、携帯されている装置の移動量ベクトルを算出することが可能な任意のデータが挙げられる。また、上記(a)に係る携帯されている装置から取得される第2の出力情報は、携帯されている装置の移動量ベクトルを示すデータであってもよい。 As 2nd output information acquired from the portable apparatus which concerns on said (a), detecting the movement of the portable apparatus with which the portable apparatus which concerns on this embodiment is equipped, for example Such as data indicating the detection value of an arbitrary motion sensor (for example, an acceleration sensor, a gyro sensor, etc.) capable of recording, or data indicating the detection value of an external sensor connected to the portable device. Arbitrary data that can be used to calculate the movement amount vector of the. Further, the second output information acquired from the portable device according to (a) may be data indicating a movement amount vector of the portable device.
上記(a)に係る第2の対象としては、例えば、上記携帯されている装置のユーザの手や腕など、モーションセンサなどによって検出することが可能な任意の対象が挙げられる。 Examples of the second object according to (a) include any object that can be detected by a motion sensor or the like, such as a user's hand or arm of the user of the portable device.
(b)携帯されている装置を所持しているユーザの行動を予測することが可能な検出結果(未来の動きに対応する検出結果)
携帯されている装置を所持しているユーザ(以下、単に「ユーザ」と示す場合がある。)の行動を予測することが可能な検出結果としては、例えば、ユーザが注目している空間座標が挙げられる。ユーザが指差し動作などの何らかの動作を行う場合には、ユーザが操作目標に対して視線を向ける場合が多い。よって、ユーザが注目している空間座標を検出することによって、携帯されている装置を所持しているユーザの行動を予測することが可能となる。
(B) Detection result capable of predicting the behavior of a user carrying a portable device (detection result corresponding to future movement)
As a detection result capable of predicting the behavior of a user carrying a portable device (hereinafter, simply referred to as “user”), for example, spatial coordinates focused by the user are Can be mentioned. When a user performs some operation such as a pointing operation, the user often turns his gaze toward the operation target. Therefore, it is possible to predict the behavior of the user who owns the portable device by detecting the spatial coordinates that the user is paying attention to.
上記(b)に係る携帯されている装置から取得される第2の出力情報としては、例えば、画像センサなどのユーザの視線を特定する、または推定することが可能な任意のセンサの検出値を示すデータ(例えば、ユーザが注目している座標を示すデータなど)が挙げられる。また、上記(b)に係る携帯されている装置から取得される第2の出力情報には、例えば、ユーザの顔の動きを検出するジャイロセンサの検出値など、ユーザの視線の推定精度をより高めることが可能な値を示すデータが含まれていてもよい。 As 2nd output information acquired from the portable apparatus which concerns on said (b), the detection value of the arbitrary sensors which can pinpoint a user's eyes | visual_axis, such as an image sensor, or can estimate, for example Data to be indicated (for example, data indicating coordinates that the user is paying attention to). In addition, the second output information acquired from the portable device according to the above (b) includes, for example, more accurate estimation of the user's line of sight, such as a detection value of a gyro sensor that detects the movement of the user's face. Data indicating a value that can be increased may be included.
上記(b)に係る第2の対象としては、例えば、ユーザが注目している空間座標が挙げられる。 As a 2nd object which concerns on said (b), the spatial coordinate which the user is paying attention is mentioned, for example.
(c)携帯されている装置の移動量に関する検出結果、およびユーザの行動を予測することが可能な検出結果
本実施形態に係る携帯されている装置から取得される第2の出力情報に基づく第2の対象の検出結果は、上記(a)に示す携帯されている装置の移動量に関する検出結果、および上記(b)に示すユーザの行動を予測することが可能な検出結果であってもよい。
(C) The detection result regarding the amount of movement of the portable device and the detection result capable of predicting the behavior of the user The second based on the second output information acquired from the portable device according to the present embodiment The detection result of the second target may be the detection result related to the movement amount of the portable device shown in (a) above and the detection result capable of predicting the user behavior shown in (b) above. .
図1、図2は、本実施形態に係る情報処理方法の概要を説明するための説明図である。図1は、本実施形態に係る情報処理方法に係る処理を行う情報処理装置100を含む、本実施形態に係る情報処理システムの一例を示している。また、図2は、本実施形態に係る情報処理システムが適用されるユースケースの一例を示している。具体的には、図2は、ユーザが、UI(User Interface)が表示されるスクリーンSに対して、指差し動作などの身体を利用した操作を行い、UIを操作するユースケースを示している。
1 and 2 are explanatory diagrams for explaining an overview of the information processing method according to the present embodiment. FIG. 1 shows an example of an information processing system according to the present embodiment including an
本実施形態に係る情報処理システムは、例えば、情報処理装置100と、センサ200と、携帯されている装置300とを有する。
The information processing system according to the present embodiment includes, for example, an
なお、図1では、1つのセンサと1つの携帯されている装置とを示しているが、本実施形態に係る情報処理システムには、センサおよび携帯されている装置の一方または双方が、複数含まれていてもよい。以下では、本実施形態に係る情報処理システムに含まれる複数のセンサを総称して、または、本実施形態に係る情報処理システムに含まれるセンサの1つを指して、「センサ200」と示す場合がある。また、以下では、本実施形態に係る情報処理システムに含まれる複数の携帯されている装置を総称して、または、本実施形態に係る情報処理システムに含まれる携帯されている装置の1つを指して、「携帯されている装置300」と示す場合がある。
Although FIG. 1 shows one sensor and one portable device, the information processing system according to the present embodiment includes a plurality of one or both of the sensor and the portable device. It may be. Hereinafter, a case where a plurality of sensors included in the information processing system according to the present embodiment is generically referred to or one of the sensors included in the information processing system according to the present embodiment is indicated as “
また、本実施形態に係る情報処理システムでは、例えば、情報処理装置100とセンサ200とが一体の装置であってもよい。以下では、情報処理装置100とセンサ200とが、図1に示すように、別体の装置である場合を例に挙げる。
In the information processing system according to the present embodiment, for example, the
情報処理装置100は、センサ200から取得される第1の出力情報と、携帯されている装置300から取得される第2の出力情報とに基づいて、準備情報を生成する処理を行う。
The
本実施形態に係る準備情報は、例えば、センサと所定の座標系との対応づけを制御するための情報(データ)である。具体的には、本実施形態に係る準備情報は、センサの出力情報に基づいて得られる対象の位置情報を、所定の座標系における座標値へ変換する処理に利用される情報である。 The preparation information according to the present embodiment is information (data) for controlling the association between the sensor and a predetermined coordinate system, for example. Specifically, the preparation information according to the present embodiment is information used for processing for converting target position information obtained based on sensor output information into coordinate values in a predetermined coordinate system.
ここで、上記位置情報が変換された所定の座標系における座標値は、例えば、UIが表示されるスクリーンSに対する、指差し動作などの身体を利用した操作の検出に用いられる。つまり、本実施形態に係る準備情報とは、例えば、センサから取得される出力情報に基づいて操作情報を生成するために使われる情報であるといえる。以下では、センサから取得される出力情報のうち、例えば上記のように対象の位置情報を得るために用いられる出力情報(操作情報を得るために用いられる出力情報)を、準備情報を生成する処理に用いられる第1の出力情報と区別して、「第3の出力情報」と示す。 Here, the coordinate value in the predetermined coordinate system in which the position information is converted is used, for example, to detect an operation using the body such as a pointing operation on the screen S on which the UI is displayed. That is, it can be said that the preparation information according to the present embodiment is information used for generating operation information based on output information acquired from a sensor, for example. Below, among the output information acquired from a sensor, the process which produces | generates preparation information for the output information (output information used in order to obtain operation information) used in order to acquire the positional information on object as mentioned above, for example The third output information is distinguished from the first output information used in the above.
なお、以下では、説明の便宜上、第1の出力情報と第3の出力情報とを分けて記載するが、本実施形態に係る第3の出力情報は、本実施形態に係る第1の出力情報の役目を果たすことができ、また、本実施形態に係る第1の出力情報は、本実施形態に係る第3の出力情報の役目を果たすことができる。 In the following, for convenience of explanation, the first output information and the third output information are described separately, but the third output information according to the present embodiment is the first output information according to the present embodiment. In addition, the first output information according to the present embodiment can serve as the third output information according to the present embodiment.
本実施形態に係る所定の座標系としては、例えば、図2に示すスクリーンSの任意の位置を原点とする空間座標系(以下、「スクリーン座標系」と示す場合がある。)が挙げられる。ここで、図2に示すスクリーンSには、センサ200A、200B(センサ200の一例)の第3の出力情報に基づいて操作される操作対象(例えば、UIに係るアイコンなど)が表示される表示画面である。つまり、スクリーン座標系は、センサ200の第1の出力情報に基づいて操作される操作対象が表示される表示画面に関連付けられた座標系であるといえる。
As the predetermined coordinate system according to the present embodiment, for example, a spatial coordinate system having an origin at an arbitrary position of the screen S shown in FIG. 2 (hereinafter, sometimes referred to as “screen coordinate system”) may be mentioned. Here, on the screen S shown in FIG. 2, a display in which an operation target (for example, an icon related to a UI) operated based on the third output information of the
なお、本実施形態に係る所定の座標系は、上記スクリーン座標系に限られず、空間における位置を表すことが可能な任意の位置を原点とする空間座標系が挙げられる。つまり、空間における位置は、所定の座標系の原点を基準とした絶対位置を示す座標で表すことが可能である。以下では、本実施形態に係る所定の座標系により表される座標を、「絶対空間座標」と示す場合がある。 The predetermined coordinate system according to the present embodiment is not limited to the screen coordinate system, and includes a spatial coordinate system having an origin at an arbitrary position that can represent a position in space. That is, the position in space can be expressed by coordinates indicating an absolute position with respect to the origin of a predetermined coordinate system. Hereinafter, the coordinates represented by the predetermined coordinate system according to the present embodiment may be referred to as “absolute space coordinates”.
センサ200の第3の出力情報に基づく位置情報としては、例えば、センサ200に対する相対的な空間座標系の座標値で位置が表される座標データが挙げられる。センサ200に対する相対的な空間座標系とは、例えば、センサ200の任意の位置を原点とする空間座標系である。以下では、センサ200に対する相対的な空間座標系における座標を、「相対空間座標」と示す場合がある。
As the position information based on the third output information of the
例えば、第3の出力情報が撮像された画像データやデプス値を示すデータである場合、第3の出力情報に基づく位置情報を得る処理は、例えば、情報処理装置100、または、サーバなどの情報処理装置100の外部装置において行われる。情報処理装置100や外部装置は、例えば、第3の出力情報が撮像された画像データやデプス値を示すデータなどから位置情報を得ることが可能な、任意の方法に係る処理によって、位置情報を得る。
For example, when the third output information is captured image data or data indicating a depth value, the process for obtaining position information based on the third output information is, for example, information such as the
本実施形態に係る準備情報は、例えば、特許文献1に記載の発光球体などの専用のキャリブレーション治具を用いて、相対空間座標を絶対空間座標に変換するパラメータを求めることによって、得られる。また、本実施形態に係る準備情報は、本実施形態に係る準備情報を生成する処理によっても得られる。 The preparation information according to the present embodiment is obtained, for example, by obtaining a parameter for converting relative space coordinates to absolute space coordinates using a dedicated calibration jig such as a light emitting sphere described in Patent Document 1. The preparation information according to the present embodiment can also be obtained by processing for generating preparation information according to the present embodiment.
本実施形態に係る準備情報を生成する処理とは、例えば、上記のような、第3の出力情報に基づいて所定の座標系における所定の座標値を算出するために利用する情報である準備情報を修正する処理である。本実施形態に係る準備情報を生成する処理が行われることによって、修正後の準備情報が新規に生成されてもよいし、修正する対象の準備情報の内容が上書き更新されてもよい。本実施形態に係る準備情報を生成する処理の具体例については、後述する。 The process of generating the preparation information according to the present embodiment is preparation information that is information used to calculate a predetermined coordinate value in a predetermined coordinate system based on the third output information as described above, for example. Is a process of correcting By performing the process of generating the preparation information according to the present embodiment, the corrected preparation information may be newly generated, or the contents of the preparation information to be corrected may be overwritten and updated. A specific example of processing for generating preparation information according to the present embodiment will be described later.
センサ200は、例えば図2のセンサ200A、200Bに示すように、空間内に設けられる。センサ200は、実空間の所定の範囲をセンシングし、第1の出力情報を、情報処理装置100へ送信する。図2に示すユースケースでは、センサ200A、200Bは、ユーザの身体部分(例えば、腕や、指など)や、ユーザが所持している携帯されている装置300などを、対象として検出する。
The
ここで、センサ200は、例えば、ネットワークを介して(あるいは、直接的に)、無線または有線で、情報処理装置100と通信を行う。本実施形態に係るネットワークとしては、例えば、LAN(Local Area Network)やWAN(Wide Area Network)などの有線ネットワーク、無線LAN(WLAN:Wireless Local Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられる。
Here, the
携帯されている装置300は、例えば図2の携帯されている装置300A、300B、300Cに示すように、ユーザの腕などに身に付けられた状態で用いられる。図2に示すユースケースでは、携帯されている装置300A、300Bから取得される第2の出力情報に基づく移動量ベクトルが、上記(a)に示す携帯されている装置の移動量に関する検出結果に該当する。また、図2に示すユースケースでは、携帯されている装置300Cから取得される第2の出力情報に基づき特定される空間座標が、上記(b)に示すユーザの行動を予測することが可能な検出結果に該当する。
The
携帯されている装置300は、備えているセンサや接続されている外部のセンサにより検出を行い、検出結果に応じた第2の出力情報を、情報処理装置100へ送信する。携帯されている装置300は、例えば、ネットワークを介して(あるいは、直接的に)、無線または有線で、情報処理装置100と通信を行う。
The
ここで、携帯されている装置300は、例えば、センサ200が設けられている空間内に存在すると判定された場合に、第2の出力情報を、情報処理装置100へ送信してもよい。携帯されている装置300は、例えば、自装置(携帯されている装置300)の位置が、設定されている領域内に含まれる場合や、センサ200との間で通信が確立された場合に、センサ200が設けられている空間内に存在すると判定する。
Here, the
上記のように、センサ200が設けられている空間内に存在すると判定された場合に、第2の出力情報を情報処理装置100へ送信することによって、情報処理装置100は、同一の空間内に存在するセンサ200から取得された第1の出力情報と、携帯されている装置300から取得される第2の出力情報とに基づいて、準備情報を修正することができる可能性が高まる。よって、情報処理装置100は、より正確に所定の座標系における座標値を算出することが可能な、準備情報を得ることができる。
As described above, when it is determined that the
情報処理装置100は、例えば図1に示すように、センサ200から取得された第1の出力情報と、携帯されている装置300から取得される第2の出力情報とに基づいて、準備情報を修正して準備情報を生成する。準備情報を生成する処理により準備情報が生成されることによって、センサ200と所定の座標系との対応付けが制御される。
For example, as illustrated in FIG. 1, the
ここで、本実施形態に係る情報処理方法に係る処理が行われる場合には、センサ200と所定の座標系との対応付けの制御に際して、既存の技術が用いられる場合に必要となる専用のキャリブレーション治具は、必要ない。
Here, when processing related to the information processing method according to the present embodiment is performed, a dedicated calibration required when an existing technique is used for controlling the association between the
また、本実施形態に係る情報処理方法に係る処理が行われる場合には、新たなセンサが追加されたときや、キャリブレーション済みのセンサが移動したときなど、環境が変化したときにおいても、準備情報が適宜修正されることによって、センサ200のキャリブレーションを行うことが可能である。よって、本実施形態に係る情報処理方法に係る処理が行われる場合には、再度のセンサ200のキャリブレーションを、容易に行うことができる。
In addition, when the processing related to the information processing method according to the present embodiment is performed, even when a new sensor is added or a calibrated sensor moves, the preparation is performed. The
したがって、本実施形態に係る情報処理方法に係る処理が行われることによって、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。 Therefore, by performing the processing related to the information processing method according to the present embodiment, the convenience of the user can be improved when a sensor that senses a predetermined range of space is used.
[2]本実施形態に係る情報処理方法に係る処理
次に、本実施形態に係る情報処理方法に係る処理について、より具体的に説明する。以下では、本実施形態に係る情報処理方法に係る処理を、図1に示す情報処理装置100が行う場合を例に挙げる。
[2] Processing Related to Information Processing Method According to Present Embodiment Next, processing related to the information processing method according to the present embodiment will be described more specifically. Below, the case where the
情報処理装置100は、実空間の所定の範囲をセンシングするセンサ200から取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置300から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う。
The
図3は、本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。 FIG. 3 is an explanatory diagram for explaining an example of processing related to the information processing method according to the present embodiment.
情報処理装置100は、例えば、センサ200ごとの対象世界モデルM1、および携帯されている装置300ごとの対象世界モデルM2を用いることによって、センサ200ごとに、準備情報(図3に示すセンサ200A準備情報P)を修正する。
The
図4、図5は、本実施形態に係る対象世界モデルを示すデータの一例を示す説明図である。図4は、センサ200ごとの対象世界モデルM1を示すデータの一例を示しており、図5は、携帯されている装置300ごとの対象世界モデルM2を示すデータの一例を示している。
4 and 5 are explanatory diagrams illustrating an example of data indicating the target world model according to the present embodiment. FIG. 4 illustrates an example of data indicating the target world model M1 for each
対象世界モデルM1とは、例えば、センサ200の第1の出力情報に基づき検出された、空間内の対象(以下、「オブジェクト」と示す。)と、当該オブジェクトの空間座標とが対応付けられて、時系列に保持されるデータモデルである。対象世界モデルM1を示すデータとしては、例えば図4に示すような、センサ200の第1の出力情報に基づき検出されたオブジェクトを示すデータと、当該オブジェクトの相対空間座標とが対応付けられて、時系列に記録されるテーブル(またはデータベース)が挙げられる。
The target world model M1 is, for example, a target in space (hereinafter referred to as “object”) detected based on the first output information of the
情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づいて、情報処理装置100が備える記憶部(後述する)や、情報処理装置100に接続されている外部の記録媒体などの、記録媒体に記憶されている対象世界モデルM1を示すデータを適宜更新する。なお、上述したように、第1の出力情報に基づき位置情報を得る処理は、情報処理装置100において行われてもよいし、情報処理装置100の外部装置において行われてもよい。
The
情報処理装置100は、例えば図4に示すような対象世界モデルM1を示すデータを参照することによって、センサ200の第1の出力情報に基づき検出されたオブジェクトの相対空間座標の変化、すなわち、センサ200からみた当該オブジェクトの動きを、第1の出力情報に基づく第1の対象の検出結果として取得することができる。
The
なお、対象世界モデルM1を示すデータは、図4に示す例に限られない。例えば、対象世界モデルM1を示すデータには、センサ200から取得される第1の出力情報に対応する時間を示すデータが、さらに対応付けられていてもよい。センサ200から取得される第1の出力情報に対応する時間としては、例えば、当該第1の出力情報が取得された時刻を示すデータや、当該第1の出力情報のタイムスタンプが示す時刻を示すデータなどが挙げられる。
Note that the data indicating the target world model M1 is not limited to the example shown in FIG. For example, data indicating the time corresponding to the first output information acquired from the
また、対象世界モデルM2とは、例えば、携帯されている装置300と、携帯されている装置300から取得される第2の出力情報に基づく第2の対象の検出結果とが対応付けられて、時系列に保持されるデータモデルである。対象世界モデルM2を示すデータとしては、例えば図5に示すような、携帯されている装置300を示すデータと、移動量ベクトル(上記(a)に示す過去、現在の動きに対応する検出結果の一例)と、ユーザが視線を向けることが予測される目標空間座標(上記(b)に示す未来の動きに対応する検出結果の一例)とが対応付けられて、時系列に記録されるテーブル(またはデータベース)が挙げられる。
The target world model M2 is associated with, for example, the
情報処理装置100は、例えば、携帯されている装置300から取得される第2の出力情報に基づいて、情報処理装置100が備える記憶部(後述する)や、情報処理装置100に接続されている外部の記録媒体などの、記録媒体に記憶されている対象世界モデルM2を示すデータを適宜更新する。
The
情報処理装置100は、例えば、携帯されている装置300から取得される第2の出力情報に基づき上記(a)に示す検出結果が得られる場合に、図5に示す移動量ベクトルを、対象世界モデルM2を示すデータに記録する。情報処理装置100は、例えば、携帯されている装置300から取得される第2の出力情報に基づいて、移動前の時点におけるオブジェクトの空間座標と、移動後の時点における当該オブジェクトの空間座標とから移動量ベクトルを求める。そして、情報処理装置100は、移動量ベクトルが求められた場合に、移動量ベクトルを、対象世界モデルM2を示すデータに記録する。
For example, when the detection result shown in (a) above is obtained based on the second output information acquired from the
また、情報処理装置100は、例えば、携帯されている装置300から取得される第2の出力情報に基づき上記(b)に示す検出結果が得られる場合に、図5に示す目標空間座標を、対象世界モデルM2を示すデータに記録する。ここで、目標空間座標は、例えば、SLAM(Simultaneous Localization and Mapping)などの空間座標を特定することが可能な任意の技術を利用して、特定される。
Further, for example, when the detection result shown in (b) above is obtained based on the second output information acquired from the
情報処理装置100は、例えば図5に示すような対象世界モデルM2を示すデータを参照することによって、携帯されている装置の移動量に関する検出結果と、予測されるユーザの動きを示す検出結果との一方または双方を、第2の出力情報に基づく第2の対象の検出結果として取得することができる。
The
なお、対象世界モデルM2を示すデータは、図5に示す例に限られない。 Note that the data indicating the target world model M2 is not limited to the example shown in FIG.
例えば、対象世界モデルM2を示すデータには、携帯されている装置300から取得される第2の出力情報に対応する時間を示すデータが、さらに対応付けられていてもよい。携帯されている装置300から取得される情報に対応する時間としては、例えば、当該第2の出力情報が取得された時刻を示すデータや、当該第2の出力情報のタイムスタンプが示す時刻を示すデータなどが挙げられる。
For example, the data indicating the target world model M2 may be further associated with data indicating the time corresponding to the second output information acquired from the
また、対象世界モデルM2を示すデータには、例えば、目標空間座標(上記(b)に示す検出結果の一例)が含まれていなくてもよい。 Further, the data indicating the target world model M2 may not include, for example, the target space coordinates (an example of the detection result shown in (b) above).
情報処理装置100は、センサ200から取得される第1の出力情報に基づく対象世界モデルM1を示すデータと、携帯されている装置300から取得される第2の出力情報に基づく対象世界モデルM2を示すデータに基づいて、準備情報を修正して準備情報を生成する。より具体的には、情報処理装置100は、例えば、下記の(1)に示す処理〜(3)の処理のいずれかの処理を行うことによって、準備情報を修正する。
The
(1)準備情報を生成する処理の第1の例
情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づく第1の対象の動き情報(第1の対象の検出結果の一例)と、携帯されている装置300から取得される第2の出力情報に基づく第2の対象の動き情報(第2の対象の検出結果の一例)とを比較する。そして、情報処理装置100は、動きの比較結果に基づいて準備情報を修正する。ここで、例えば、第1の対象の動き情報と第2の対象の動き情報との比較が、第1の対象と第2の対象とが関連する対象であるかを判定する処理の一例に該当する。また、動きの比較結果に基づいて準備情報が修正される場合は、例えば、第1の対象の動きに応じて第2の対象が動く場合に該当し、第1の対象と第2の対象とは関連する対象であるといえる。
(1) First Example of Process for Generating Preparation Information The
ここで、本実施形態に係る動き情報としては、例えば、オブジェクトごとの移動量ベクトルが挙げられる。本実施形態に係る移動量ベクトルは、例えば、第1の時点におけるオブジェクトの空間座標と、当該第1の時点よりも後の第2の時点における当該オブジェクトの空間座標とから求めることができる。 Here, as the motion information according to the present embodiment, for example, a movement amount vector for each object may be mentioned. The movement amount vector according to the present embodiment can be obtained from, for example, the spatial coordinates of the object at the first time point and the spatial coordinates of the object at the second time point after the first time point.
情報処理装置100は、例えば、対象世界モデルM1を示すデータ、および対象世界モデルM2を示すデータそれぞれから移動量ベクトルを求める。また、情報処理装置100は、例えば、対応する時点における移動量ベクトルを求めてもよい。本実施形態に係る対応する時点としては、例えば、同一の時点、または、設定されている誤差の範囲内の時点が挙げられる。上記誤差は、例えば、予め設定されている固定値であってもよいし、情報処理装置100のユーザなどの操作によって設定可能な可変値であってもよい。
For example, the
また、情報処理装置100は、例えば、対象世界モデルM1を示すデータ、および対象世界モデルM2を示すデータそれぞれから求められた移動量ベクトルの相関が高いか否かを判定する。ここで、上記移動量ベクトルの相関が高いか否かの判定は、センサ200の検出値と携帯されている装置300の検出値とが同一のオブジェクトの検出結果であるか否かの判定に相当する。
Further, for example, the
情報処理装置100は、例えば、移動量ベクトルの相関係数が設定されている閾値(例えば、0<閾値<1)以上、または、当該相関係数が当該閾値より大きい場合に、対応する時点における移動量ベクトルの相関が高いと判定する。
For example, when the correlation coefficient of the movement amount vector is set to a threshold (for example, 0 <threshold <1) or more, or when the correlation coefficient is larger than the threshold, the
ここで、対応する時点における移動量ベクトルの相関が高い場合の例としては、例えば、下記のような例が挙げられる。
・センサ200の第1の出力情報に基づき検出される第1の対象と、携帯されている装置300の第2の出力情報に基づき検出される第2の対象とが、同一である場合(例えば、センサ200、携帯されている装置300の双方において、ユーザの腕の動きが検出される場合)
・センサ200の第1の出力情報に基づき検出される第1の対象と、携帯されている装置300の第2の出力情報に基づき検出される第2の対象とが、関連する対象である場合(例えば、センサ200がユーザの手のひらを検出し、携帯されている装置300が、ユーザの腕の動きを検出する場合)
Here, as an example of the case where the correlation of the movement amount vector at the corresponding time is high, for example, the following example is given.
When the first target detected based on the first output information of the
When the first target detected based on the first output information of the
情報処理装置100は、例えば、移動量ベクトルの相関が高いと判定された場合に、センサ200から取得される情報に基づく移動量ベクトルと、携帯されている装置300から取得される情報に基づく移動量ベクトルとのズレを修正する修正パラメータ(以下、「第1の修正パラメータ」と示す。)を算出する。
For example, when it is determined that the correlation between the movement amount vectors is high, the
本実施形態に係る第1の修正パラメータは、例えば、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとのズレを修正する修正パラメータを求めることによって得られる。
The first correction parameter according to the present embodiment includes, for example, a movement amount vector based on the first output information acquired from the
そして、情報処理装置100は、第1の修正パラメータによって準備情報を修正する。第1の例に係る準備情報を生成する処理における準備情報の修正は、第1の出力情報に基づく第1の対象の位置の位置ずれの修正に該当する。
Then, the
なお、本実施形態に係る第1の修正パラメータは、上記に示す例に限られない。 Note that the first correction parameter according to the present embodiment is not limited to the example described above.
例えば、本実施形態に係る第1の修正パラメータは、センサ200から取得される第1の出力情報に対応する時間と携帯されている装置300から取得される第2の出力情報に対応する時間との時間ずれをさらに修正する修正パラメータであってもよい。
For example, the first correction parameter according to the present embodiment includes a time corresponding to the first output information acquired from the
センサ200から取得される第1の出力情報に対応する時間と携帯されている装置300から取得される第2の出力情報に対応する時間とに時間ずれがある場合には、当該時間ずれに起因して、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとにズレが生じる可能性がある。情報処理装置100は、例えば、時間ずれに対応する修正値によって、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとの一方または双方を修正する。そして、情報処理装置100は、例えば、修正後の移動量ベクトルとのズレを修正する修正パラメータを求めることによって、時間ずれをさらに修正する第1の修正パラメータを取得する。
When there is a time lag between the time corresponding to the first output information acquired from the
上記のような時間ずれをさらに修正する第1の修正パラメータによって準備情報を修正することによって、情報処理装置100は、第1の出力情報に対応する時間と第2の出力情報に対応する時間との時間ずれがさらに修正される準備情報を得ることができる。
By correcting the preparation information with the first correction parameter that further corrects the time lag as described above, the
情報処理装置100は、例えば上記のように第1の修正パラメータを算出して、準備情報を修正する。なお、本実施形態に係る第1の修正パラメータの算出方法は、上記に限られない。情報処理装置100は、“センサ200から取得される第1の出力情報に基づくオブジェクトの位置と携帯されている装置300から取得される第2の出力情報に基づくオブジェクトの位置との位置ずれ”、または“当該位置ずれ、およびセンサ200から取得される第1の出力情報に対応する時間と携帯されている装置300から取得される第2の出力情報に対応する時間との時間ずれ”を修正する修正パラメータを得ることが可能な任意の方法によって、第1の修正パラメータを算出することが可能である。
The
また、情報処理装置100は、例えば、移動量ベクトルの相関が高いと判定されない場合には、準備情報を修正しない。
Further, for example, when it is not determined that the correlation of the movement amount vector is high, the
情報処理装置100は、例えば上記のような処理を行うことによって、センサ200から取得される第1の出力情報に基づく第1の対象の動き情報(第1の対象の検出結果の一例)と、携帯されている装置300から取得される第2の出力情報に基づく第2の対象の動き情報(第2の対象の検出結果の一例)と比較結果(動きの比較結果)に基づいて準備情報を修正する。
The
また、情報処理装置100は、例えば、算出した第1の修正パラメータを、例えば、記憶部(後述する)などの記録媒体に記録させてもよい。
For example, the
(2)準備情報を生成する処理の第2の例
情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づき特定される空間座標(第1の対象の検出結果の一例)と、携帯されている装置300から取得される第2の出力情報に基づき特定される空間座標(第2の対象の検出結果の一例)とを比較する。そして、情報処理装置100は、空間座標の比較結果に基づいて準備情報を修正する。ここで、例えば、第1の出力情報に基づき特定される空間座標と携帯されている装置300から取得される第2の出力情報に基づき特定される空間座標との比較が、第1の対象と第2の対象とが関連する対象であるかを判定する処理の他の例に該当する。
(2) Second Example of Process for Generating Preparation Information The
例えば、センサ200から取得される第1の出力情報が空間座標を示す場合には、情報処理装置100は、センサ200から取得される第1の出力情報が示す空間座標を用いる。また、センサ200から取得される第1の出力情報が空間座標を示さない場合には、情報処理装置100は、例えば、SLAMなどの空間座標を特定することが可能な任意の技術を利用して、センサ200から取得される第1の出力情報に基づいて空間座標を特定する。
For example, when the first output information acquired from the
また、情報処理装置100は、例えば、対象世界モデルM2を示すデータから、センサ200から取得される第1の出力情報に対応する目標空間座標を抽出し、抽出された目標空間座標を、携帯されている装置300から取得される第2の出力情報に基づく空間座標とする。ここで、対象世界モデルM2を示すデータから抽出されるセンサ200から取得される第1の出力情報に対応する目標空間座標としては、例えば、センサ200から取得される第1の出力情報に基づく空間座標との距離が、設定されている閾値以下である目標空間座標(または、当該距離が当該閾値より小さい目標空間座標)が挙げられる。
In addition, the
そして、情報処理装置100は、例えば、目標空間座標と特定された空間座標とのズレを修正する修正パラメータを、第2の修正パラメータとして算出する。また、情報処理装置100は、例えば、目標空間座標と特定された空間座標とのズレが存在しない場合には、第2の修正パラメータを算出しない。ここで、本実施形態に係る第2の修正パラメータは、空間座標の比較結果に基づく準備情報の修正に係る修正パラメータに該当する。
Then, the
そして、情報処理装置100は、算出された第2の修正パラメータによって準備情報を修正する。
Then, the
情報処理装置100は、例えば上記のような処理を行うことによって、センサ200から取得される第1の出力情報に基づき特定される空間座標と、携帯されている装置300から取得される第2の出力情報に基づき特定される空間座標との比較結果(空間座標の比較結果)に基づいて準備情報を修正する。
The
また、情報処理装置100は、例えば、算出した第2の修正パラメータを、例えば、記憶部(後述する)などの記録媒体に記録させる。
In addition, the
ここで、携帯されている装置300のユーザを示す識別情報が携帯されている装置300から取得されている場合、または、識別情報を携帯されている装置300から取得することが可能な場合には、情報処理装置100は、第2の修正パラメータを、携帯されている装置300のユーザを示す識別情報と対応付けて記録媒体に記録させてもよい。情報処理装置100は、例えば、第2の修正パラメータと識別情報とを、テーブル(またはデータベース)に記録させるなど、第2の修正パラメータと識別情報とを対応付けて記録させることが可能な任意の方法で、記録媒体に記録させる。
Here, when the identification information indicating the user of the
本実施形態に係る識別情報としては、例えば、ユーザIDおよびパスワードを示すデータや、ユーザの生体情報(データ)など、ユーザを特定することが可能な任意のデータ(またはデータ群)が挙げられる。 As identification information which concerns on this embodiment, the arbitrary data (or data group) which can specify a user, such as data which show a user ID and a password, a user's biometric information (data), are mentioned, for example.
第2の修正パラメータは、例えば上記のように、携帯されている装置300から取得される第2の出力情報に基づく目標空間座標、すなわち、上記(b)に示す未来の動きに対応する検出結果に基づき算出される修正パラメータであるので、ユーザごとに特有の修正パラメータである可能性が高い。よって、情報処理装置100が、第2の修正パラメータと携帯されている装置300のユーザを示す識別情報とを対応付けて記録媒体に記録させることによって、ユーザごとにより適した修正パラメータによるセンサ200のキャリブレーションを、実現させることができる。
The second correction parameter is, for example, as described above, the target space coordinates based on the second output information acquired from the
(3)準備情報を生成する処理の第3の例
情報処理装置100は、例えば、上記(1)に示す第1の例に係る準備情報を生成する処理と、上記(2)に示す第2の例に係る準備情報を生成する処理とを、組み合わせた処理を行い、例えば、上記第1の修正パラメータと上記第2の修正パラメータとの一方または双方によって、準備情報を修正することも可能である。上記(1)に示す第1の例に係る準備情報を生成する処理と、上記(2)に示す第2の例に係る準備情報を生成する処理とを、組み合わせた処理の一例については、後述する本実施形態に係る情報処理方法に係る処理の具体例において示す。
(3) Third Example of Process for Generating Preparation Information The
情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、例えば上記のような準備情報を生成する処理を行うことによって、準備情報を修正して準備情報を生成する。準備情報を生成する処理により準備情報が生成されることによって、センサ200と所定の座標系との対応付けが制御される。
The
また、情報処理装置100は、センサ200から取得される第1の出力情報と携帯されている装置300から取得される第2の出力情報との双方が取得される場合において、上記準備情報を生成する処理を、例えば下記のタイミングで行うことが可能である。
・定期的(間欠的)または非定期的
・ユーザの所定の動作が検出されたとき
Further, the
・ Periodic (intermittent) or non-periodic ・ When a user's predetermined motion is detected
ここで、上記ユーザの所定の動作としては、例えば、設定されているジェスチャなどのユーザの動作が挙げられる。本実施形態に係る所定の動作の内容は、例えば、紙などの物理的な媒体や、オンラインマニュアルのような電子媒体によって、ユーザに伝えられる。 Here, examples of the predetermined operation of the user include a user operation such as a set gesture. The content of the predetermined operation according to the present embodiment is transmitted to the user via, for example, a physical medium such as paper or an electronic medium such as an online manual.
なお、本実施形態に係る所定の動作をユーザに伝える方法は、上記に限られない。 Note that the method of transmitting the predetermined operation according to the present embodiment to the user is not limited to the above.
例えば、情報処理装置100は、所定の動作を行わせるための通知を制御し、当該通知を自装置(情報処理装置100)や外部装置に行わせることによって、所定の動作の内容をユーザに伝え、ユーザに所定の動作を行わせることも可能である。情報処理装置100は、例えば、文字や画像を表示画面に表示させることによる視覚的な通知や、音声をスピーカなどの音声出力デバイスから出力させることによる聴覚的な通知、あるいは、これらの通知を組み合わせた通知を行わせることによって、所定の動作の内容をユーザに伝える。
For example, the
図6、図7は、本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図であり、情報処理装置100が行わせる所定の動作を行わせるための通知の一例を示している。
6 and 7 are explanatory diagrams for explaining an example of processing related to the information processing method according to the present embodiment, and show an example of notification for causing the
情報処理装置100は、例えば図6に示すように、新たなセンサ200が検出された場合に、所定の動作を行わせるための通知を、自装置(情報処理装置100)や外部装置に行わせる。情報処理装置100は、例えば、新たなセンサ200との通信が確立された場合に、図6に示すような通知を行わせる。
For example, as illustrated in FIG. 6, the
また、情報処理装置100は、例えば図7に示すように、既存のセンサ200の位置の移動が検出された場合に、所定の動作を行わせるための通知を自装置(情報処理装置100)や外部装置に行わせてもよい。情報処理装置100は、例えば、既存のセンサ200から取得される位置の移動の判定に係るデータに基づき、センサ200の位置の移動が検出された場合に、図7に示すような通知を行わせる。
Further, for example, as illustrated in FIG. 7, the
センサ200における設置されている位置の移動は、例えば、センサ200が備える加速度センサなどの動きを検出することが可能なセンサや、センサ200に接続されている加速度センサなどの外部のセンサの検出値によって判定される。センサ200における設置されている位置の移動の判定に係る処理は、例えば、センサ200が行ってもよいし、情報処理装置100が行ってもよい。センサ200によって上記位置の移動の判定に係る処理が行われる場合、位置の移動の判定に係るデータとしては、例えば位置の移動の判定結果を示すデータが挙げられる。また、情報処理装置100によって上記位置の移動の判定に係る処理が行われる場合、位置の移動の判定に係るデータとしては、例えばセンサ200が備えるセンサなどの検出値を示すデータが挙げられる。
The movement of the installed position in the
情報処理装置100は、図6、図7に示すような視覚的な通知を行わせることによって、センサ200のキャリブレーションが必要な状況(または、センサ200のキャリブレーションを行うことが望ましい状況)において所定の動作の内容をユーザに伝え、ユーザに所定の動作を行わせることが可能となる。なお、情報処理装置100が行わせる所定の動作を行わせるための通知の例が、図6や図7に示す例に限られないことは、言うまでもない。
The
なお、本実施形態に係る情報処理方法に係る処理は、上記準備情報を生成する処理に限られない。 In addition, the process which concerns on the information processing method which concerns on this embodiment is not restricted to the process which produces | generates the said preparation information.
例えば、情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、センサ200から取得される第1の出力情報と、準備情報との一方または双方に基づいて、所定の処理をさらに行うことが可能である。
For example, the
本実施形態に係る所定の処理としては、例えば、下記に示す(I)変換処理と、下記に示す(II)実行制御処理との一方または双方が挙げられる。 Examples of the predetermined processing according to the present embodiment include one or both of (I) conversion processing shown below and (II) execution control processing shown below.
(I)変換処理
情報処理装置100は、例えば、準備情報に基づいて、センサ200から取得される第1の出力情報に基づいて得られる対象の位置情報を、所定の座標系における座標値へ変換する。
(I) Conversion processing The
情報処理装置100は、例えば、センサ200の対象世界モデルM1を示すデータに記録されている空間座標(センサ200から取得される第1の出力情報に基づく第1の対象の検出結果の一例。)を、準備情報を用いて所定の座標系における座標値へ変換する。そして、情報処理装置100は、変換した結果を、例えば、対象となる空間全体における対象世界モデル(例えば図3に示す対象世界モデルM3)に反映させる。
The
図8は、本実施形態に係る対象世界モデルを示すデータの一例を示す説明図であり、処理対象となる空間全体における対象世界モデルM3を示すデータの一例を示している。 FIG. 8 is an explanatory diagram illustrating an example of data indicating the target world model according to the present embodiment, and illustrates an example of data indicating the target world model M3 in the entire space to be processed.
空間全体における対象世界モデルM3とは、例えば、対象となる空間から検出されたオブジェクトと、当該オブジェクトの空間における絶対座標と、当該オブジェクトに該当する携帯されている装置300とが対応付けられて、時系列に保持されるデータモデルである。空間における絶対座標は、例えば、空間における設定された位置を原点として表される。対象世界モデルM3を示すデータとしては、例えば図8に示すような、対象となる空間から検出されたオブジェクトを示すデータと、当該オブジェクトの空間における絶対座標と、当該オブジェクトに該当する携帯されている装置300とが対応付けられて、時系列に記録されるテーブル(またはデータベース)が挙げられる。
The target world model M3 in the entire space is, for example, an object detected from the target space, the absolute coordinates in the space of the object, and the
(II)実行制御処理
情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づいて得られる対象の位置情報が準備情報により変換された、所定の座標系における座標値に基づく処理(以下、「変換された検出結果に基づく処理」と示す場合がある。)を行わせる。
(II) Execution Control Processing The
情報処理装置100が処理を行わせる制御対象としては、例えば、自装置(情報処理装置100)と、情報処理装置100の外部装置との一方または双方が挙げられる。
Examples of the control target to be processed by the
情報処理装置100は、例えば、空間全体における対象世界モデルM3の変化、すなわち、空間におけるオブジェクトの位置(所定の座標系における座標値)の変化に基づいて、制御対象に実行させる、変換された検出結果に基づく処理を決定する。そして、情報処理装置100は、決定された処理を実行させるための命令を含む処理要求を、制御対象に伝達することによって、制御対象に、変換された検出結果に基づく処理を行わせる。
For example, the
ここで、変換された検出結果に基づく処理としては、例えば、スクリーンSに表示されたUIに対する操作に応じて操作に対応するアプリケーションを実行させる処理(図2に示すユースケースにおける例)など、センサ200から取得される第1出力情報に基づくオブジェクトの検出結果を用いて行うことが可能な、任意の処理が挙げられる。 Here, as a process based on the converted detection result, for example, a sensor that executes an application corresponding to an operation in accordance with an operation on the UI displayed on the screen S (example in the use case shown in FIG. 2) or the like. Arbitrary processing that can be performed using the detection result of the object based on the first output information acquired from 200 is given.
情報処理装置100は、例えば、所定の処理として、例えば、上記(I)変換処理と上記(II)実行制御処理との一方または双方を行う。なお、本実施形態に係る所定の処理は、上記(I)変換処理や、上記(II)実行制御処理に限られず、情報処理装置100は、例えば、第1の出力情報と準備情報との一方または双方に基づいて行うことが可能な任意の処理を、所定の処理として行うことが可能である。
The
本実施形態に係る情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、例えば、“上記準備情報を生成する処理”や、“上記準備情報を生成する処理、および上記所定の処理”を行う。
The
なお、“上記準備情報を生成する処理”や、“上記準備情報を生成する処理、および上記所定の処理”は、便宜上、本実施形態に係る情報処理方法に係る処理を切り分けたものである。よって、本実施形態に係る情報処理方法に係る処理は、例えば、“上記準備情報を生成する処理”を、(任意の切り分け方によって)2以上の処理と捉えることが可能である。また、本実施形態に係る情報処理方法に係る処理は、例えば、“上記準備情報を生成する処理、および上記所定の処理”を、1つの処理と捉えることが可能であり、また、それぞれを、(任意の切り分け方によって)2以上の処理と捉えることも可能である。 Note that “the process for generating the preparation information”, “the process for generating the preparation information, and the predetermined process” are obtained by separating the processes related to the information processing method according to the present embodiment for convenience. Therefore, the process according to the information processing method according to the present embodiment can be regarded as, for example, “the process of generating the preparation information” as two or more processes (depending on an arbitrary separation method). In addition, the process according to the information processing method according to the present embodiment can be regarded as, for example, “the process for generating the preparation information and the predetermined process” as one process. It can also be regarded as two or more processes (depending on an arbitrary separation method).
[3]本実施形態に係る情報処理方法に係る処理の具体例
次に、情報処理装置100における本実施形態に係る情報処理方法に係る処理の具体例を示す。
[3] Specific Example of Processing According to Information Processing Method According to This Embodiment Next, a specific example of processing according to the information processing method according to this embodiment in the
図9は、本実施形態に係る情報処理方法に係る処理の一例を示す流れ図である。ここで、例えば図9に示すステップS104〜S120の処理が、上記準備情報を生成する処理の一例に該当する。また、例えば、図9に示すステップS122の処理が、上記(I)の処理(変換処理)の一例に該当し、図9に示すステップS124の処理が、上記(II)の処理(実行制御処理)の一例に該当する。 FIG. 9 is a flowchart illustrating an example of processing according to the information processing method according to the present embodiment. Here, for example, the processing of steps S104 to S120 illustrated in FIG. 9 corresponds to an example of processing for generating the preparation information. Further, for example, the process in step S122 shown in FIG. 9 corresponds to an example of the process (I) (conversion process), and the process in step S124 shown in FIG. 9 is performed in the process (II) (execution control process). ).
情報処理装置100は、センサ200から取得された第1の出力情報に基づいて、センサ200の対象世界モデルM1を示すデータを更新する(S100)。情報処理装置100は、例えば、センサ200に対応する対象世界モデルM1を示すデータが記録媒体に記憶されていない場合には、図4に示すような対象世界モデルM1を示すデータを作成して更新する。また、情報処理装置100は、例えば、センサ200に対応する対象世界モデルM1を示すデータが記録媒体に記憶されている場合には、記憶されている対象世界モデルM1を示すデータを更新する。
The
情報処理装置100は、携帯されている装置300から取得された第2の出力情報に基づいて、携帯されている装置300の対象世界モデルM2を示すデータを更新する(S102)。情報処理装置100は、例えば、携帯されている装置300に対応する対象世界モデルM2を示すデータが記録媒体に記憶されていない場合には、図5に示すような対象世界モデルM2を示すデータを作成して更新する。また、情報処理装置100は、例えば、携帯されている装置300に対応する対象世界モデルM2を示すデータが記録媒体に記憶されている場合には、記憶されている対象世界モデルM2を示すデータを更新する。
The
なお、図9では、ステップS100の処理が行われた後に、ステップS102の処理が行われる例を示しているが、情報処理装置100における処理は、上記に限られない。例えば、情報処理装置100は、ステップS100の処理と、ステップS102の処理とを独立に行うことが可能である。よって、情報処理装置100では、ステップS100の処理と、ステップS102の処理とが同期して行われてもよいし、ステップS102の処理の後にステップS100の処理が行われてもよい。
Although FIG. 9 shows an example in which the process of step S102 is performed after the process of step S100 is performed, the process in the
情報処理装置100は、例えば、センサ200の対象世界モデルM1を示すデータのオブジェクトと、携帯されている装置300に対応する対象世界モデルM2を示すデータのオブジェクトとのうち、移動量ベクトルの相関が高いオブジェクトを検出する(S104)。ここで、ステップS104の処理は、センサ200に対応する対象世界モデルM1を示すデータと、携帯されている装置300に対応する対象世界モデルM2を示すデータとから、同一のオブジェクトに対応するデータを検出する処理に該当する。
The
情報処理装置100は、例えば、移動量ベクトルの相関係数が設定されている閾値(例えば、0<閾値<1)以上、または、当該相関係数が当該閾値より大きい場合に、移動量ベクトルの相関が高いと判定する。また、情報処理装置100は、移動量ベクトルの相関が高いと判定された場合に、移動量ベクトルの相関が高いオブジェクトが検出されたと判定する。
For example, when the correlation coefficient of the movement vector is set to a threshold (for example, 0 <threshold <1) or more, or when the correlation coefficient is larger than the threshold, the
情報処理装置100は、相関が高いオブジェクトが検出されたか否かを判定する(S106)。
The
ステップS106において相関が高いオブジェクトが検出されたと判定されない場合には、情報処理装置100は、例えば後述するステップS118からの処理を行う。
If it is not determined in step S106 that an object with high correlation has been detected, the
また、ステップS106において相関が高いオブジェクトが検出されたと判定された場合には、情報処理装置100は、移動量ベクトルのズレが閾値以上であるか否かを判定する(S108)。ここで、ステップS108の判定は、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、対応する携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとを評価する処理に該当する。
If it is determined in step S106 that an object having a high correlation has been detected, the
ここで、ステップS108の処理に係る閾値は、予め設定されている固定値であってもよいし、情報処理装置100のユーザなどの操作によって設定可能な可変値であってもよい。また、ステップS108では、移動量ベクトルのズレが当該閾値より大きいか否かが判定されてもよい。
Here, the threshold value related to the process of step S108 may be a fixed value set in advance, or may be a variable value that can be set by an operation of the user of the
ステップS108において移動量ベクトルのズレが閾値以上であると判定されない場合には、情報処理装置100は、後述するステップS112からの処理を行う。
If it is not determined in step S108 that the displacement of the movement amount vector is greater than or equal to the threshold value, the
また、ステップS108において移動量ベクトルのズレが閾値以上であると判定された場合には、情報処理装置100は、センサ200に対応する準備情報を修正する(S110)。情報処理装置100は、例えば、上記(1)に示す第1の例に係る準備情報を生成する処理を行い、算出された第1の修正パラメータによって準備情報を修正する。
If it is determined in step S108 that the displacement of the movement amount vector is greater than or equal to the threshold value, the
具体例を挙げると、情報処理装置100は、例えば、センサ200から取得される第1の出力情報に基づく移動量ベクトルと、対応する携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルとを一致させる修正パラメータを、第1の修正パラメータとして算出する。上記のように第1の修正パラメータを算出することによって、情報処理装置100は、センサ200から取得される第1の出力情報に基づくオブジェクトの位置と、携帯されている装置300から取得される第2の出力情報に基づくオブジェクトの位置との位置ずれを修正する修正パラメータを、第1の修正パラメータとして算出することができる。
As a specific example, the
なお、上述したように、情報処理装置100は、例えば、センサ200から取得される第1の出力情報に対応する時間と携帯されている装置300から取得される第1の出力情報に対応する時間との時間ずれをさらに修正する修正パラメータを、第1の修正パラメータとして算出してもよい。
Note that, as described above, the
そして、情報処理装置100は、算出された第1の修正パラメータによって準備情報を修正する。
Then, the
ステップS108において移動量ベクトルのズレが閾値以上であると判定されない場合、または、ステップS110の処理が行われた場合には、目標空間座標が設定されているか否かを判定する(S112)。ここで、目標空間座標は、例えば、携帯されている装置300から取得される第2の出力情報に基づき上記(b)に示す未来の動きに対応する検出結果が得られることによって設定される、携帯されている装置300から取得される第2の出力情報に基づく空間座標である。
If it is not determined in step S108 that the displacement of the movement vector is greater than or equal to the threshold value, or if the process of step S110 is performed, it is determined whether the target space coordinates are set (S112). Here, the target space coordinates are set by obtaining a detection result corresponding to the future movement shown in (b) based on the second output information acquired from the
ステップS112において目標空間座標が設定されていると判定されない場合には、情報処理装置100は、例えば後述するステップS118からの処理を行う。
If it is not determined in step S112 that the target space coordinates are set, the
また、ステップS112において目標空間座標が設定されていると判定された場合には、情報処理装置100は、センサ200から取得される第1の出力情報に基づき特定される空間座標と、目標空間座標とのズレが、閾値以上であるか否かを判定する(S114)。ここで、ステップS114の判定は、センサ200から取得される第1の出力情報に基づく空間座標と目標空間座標とを評価する処理に該当する。
If it is determined in step S112 that the target space coordinates are set, the
ここで、ステップS114の処理に係る閾値は、予め設定されている固定値であってもよいし、情報処理装置100のユーザなどの操作によって設定可能な可変値であってもよい。また、ステップS114では、センサ200から取得される第1の出力情報に基づき特定される空間座標と目標空間座標とのズレが当該閾値より大きいか否かが判定されてもよい。
Here, the threshold value related to the process of step S114 may be a fixed value set in advance or a variable value that can be set by an operation of the user of the
ステップS114において、センサ200から取得される第1の出力情報に基づき特定される空間座標と目標空間座標とのズレが、閾値以上であると判定されない場合には、情報処理装置100は、例えば後述するステップS118からの処理を行う。
In step S114, when it is not determined that the difference between the spatial coordinates specified based on the first output information acquired from the
また、ステップS114において、センサ200から取得される第1の出力情報に基づき特定される空間座標と目標空間座標とのズレが、閾値以上であると判定された場合には、情報処理装置100は、センサ200に対応する準備情報を修正する(S116)。情報処理装置100は、例えば、上記(2)に示す第2の例に係る準備情報を生成する処理を行い、算出された第2の修正パラメータによって準備情報を修正する。
If it is determined in step S114 that the difference between the spatial coordinates specified based on the first output information acquired from the
具体例を挙げると、情報処理装置100は、例えば、目標空間座標と特定された空間座標とのズレを修正する修正パラメータを、第2の修正パラメータとして算出する。そして、情報処理装置100は、算出された第2の修正パラメータによって準備情報を修正する。
For example, the
また、携帯されている装置300に対応する識別情報が取得された場合には、情報処理装置100は、取得された識別情報と対応付けられている第2の修正パラメータを検索する。そして、識別情報と対応付けられている第2の修正パラメータが存在する場合には、情報処理装置100は、識別情報と対応付けられている第2の修正パラメータによって、準備情報を修正する。
When the identification information corresponding to the
上記ステップS106〜S120までの処理によって、準備情報が選択的に修正されると、情報処理装置100は、準備情報を用いて、センサ200の対象世界モデルM1を示すデータを、空間全体における対象世界モデルM3を示すデータに反映させる(S118)。
When the preparation information is selectively modified by the processing from the above steps S106 to S120, the
情報処理装置100は、例えば、上記(I)の処理(変換処理)を行うことによって、センサ200の対象世界モデルM1を示すデータの空間座標を、準備情報に基づいて絶対空間座標(所定の座標系における座標値)へ変換する。そして、情報処理装置100は、変換された絶対空間座標を対象世界モデルM3を示すデータに記録する。
The
情報処理装置100は、空間全体における対象世界モデルM3の変化に基づいて処理を行わせる(S120)。
The
情報処理装置100は、例えば、上記(II)の処理(実行制御処理)を行うことによって、変換された検出結果に基づく処理を決定し、決定された処理を実行させるための命令を含む処理要求を制御対象に伝達することによって、制御対象に、変換された検出結果に基づく処理を行わせる。
For example, the
情報処理装置100は、本実施形態に係る情報処理方法に係る処理として、例えば図9に示す処理を行う。
The
例えば図9に示す処理が行われる場合には、センサ200から取得される第1の出力情報と、携帯されている装置300から取得される第2の出力情報とに基づいて、準備情報が選択的に修正される。
For example, when the process illustrated in FIG. 9 is performed, the preparation information is selected based on the first output information acquired from the
よって、例えば図9に示す処理が行われることによって、情報処理装置100は、センサ200と所定の座標系との対応付けを制御することができる。
Therefore, for example, by performing the process illustrated in FIG. 9, the
また、例えば図9に示す処理が行われることによって、情報処理装置100は、携帯されている装置300から取得される第2の出力情報に基づく空間座標を、準備情報に基づいて絶対空間座標へ変換することができる。さらに、例えば図9に示す処理が行われることによって、情報処理装置100は、変換された検出結果に基づく処理を、制御対象に行わせることができる。
Further, for example, by performing the processing illustrated in FIG. 9, the
したがって、情報処理装置100が、例えば図9に示す処理を行うことによって、例えば図2に示すようなUIを操作するユースケースにおいて、ユーザの動作によりユーザが意図した処理が行われる可能性を高めることが可能となるので、ユーザの操作性や利便性をより高めることができる。
Therefore, the
なお、本実施形態に係る情報処理方法に係る処理は、図9に示す例に限られない。 In addition, the process which concerns on the information processing method which concerns on this embodiment is not restricted to the example shown in FIG.
例えば、情報処理装置100は、図9のステップS112〜S116の処理を行わない、すなわち、第2の修正パラメータに基づく準備情報の修正を行わなくてもよい。
For example, the
また、情報処理装置100は、例えば、“図9のステップS120”、または、“図9のステップS118の処理、およびS120の処理を行わないことも可能である。
Further, for example, the
“図9のステップS120”、または、“図9のステップS118の処理、およびS120の処理を行わない場合であっても、情報処理装置100は、上記準備情報を生成する処理によって、準備情報を修正することができる。よって、“図9のステップS120”、または、“図9のステップS118の処理、およびS120の処理を行わない場合であっても、情報処理装置100は、センサ200と所定の座標系との対応付けを制御することが可能であるので、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。
Even if “Step S120 of FIG. 9” or “Step S118 of FIG. 9 and Step S120 of FIG. 9 are not performed, the
[4]本実施形態に係る情報処理方法が適用可能なユースケース
次に、本実施形態に係る情報処理方法が適用されうるユースケースを示す。以下では、ユースケースにおける本実施形態に係る情報処理方法に係る処理を、情報処理装置100が行う場合を例に挙げる。
[4] Use cases to which the information processing method according to the present embodiment can be applied Next, use cases to which the information processing method according to the present embodiment can be applied will be described. Hereinafter, a case where the
[4−1]ユースケースの第1の例
太陽光の影響など使用環境の変化により、過去に設定された準備情報では、イメージセンサなどのセンサによる検出結果の精度が著しく悪くなることがありうる。また、使用環境の変化の度に、ユーザに何らかのキャリブレーションに係る操作を行わせるのは手間である。
[4-1] First Example of Use Case With the preparation information set in the past due to changes in the usage environment such as the influence of sunlight, the accuracy of the detection result by a sensor such as an image sensor may be significantly deteriorated. . In addition, it is troublesome to cause the user to perform some calibration-related operation whenever the usage environment changes.
本実施形態に係る情報処理方法が用いられる場合には、例えば、ユーザが身に付けているウェアラブルデバイス(携帯されている装置300の一例)から取得される第2の出力情報を用いて、各時点におけるより適した準備情報を得ることが可能であるので、センサ200から取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態に保つことができる。
When the information processing method according to the present embodiment is used, for example, using the second output information acquired from the wearable device (an example of the portable device 300) worn by the user, Since more suitable preparation information at the time can be obtained, the accuracy of the detection result of the object based on the first output information acquired from the
[4−2]ユースケースの第2の例
上述したように、本実施形態に係る情報処理方法に係る処理が行われることによって、センサ200から取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態に保つことができる。
[4-2] Second Example of Use Case As described above, an object is detected based on the first output information acquired from the
複数のセンサ200が空間に設置される際にセンサのキャリブレーションを行う場合には、例えば、ユーザが身に付けているウェアラブルデバイス(携帯されている装置300の一例)から取得される第2の出力情報に基づいて、センサ200同士が互いに検出したオブジェクトの位置の情報を共有して、検出範囲を広げることが可能である。
When the sensors are calibrated when the plurality of
図10は、本実施形態に係る情報処理方法が適用可能なユースケースの一例を説明するための説明図である。図10は、設置されていたセンサ200Aに加えて、センサ200Bが新たに設置された例を示している。
FIG. 10 is an explanatory diagram for explaining an example of a use case to which the information processing method according to the present embodiment can be applied. FIG. 10 shows an example in which a
ここで、本実施形態に係る情報処理方法に係る処理が新たに設置されたセンサ200Bに対して行われることによって、上述したように、センサ200Bから取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態とする可能である。
Here, as a result of the processing relating to the information processing method according to the present embodiment being performed on the newly installed
なお、新たに設置されたセンサ200Bから取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態とする方法は、上記に示す例に限られない。
Note that the method of setting the accuracy of the detection result of the object based on the first output information acquired from the newly installed
例えば、センサ200A、センサ200B、および携帯されている装置300Cそれぞれの出力情報に基づき同一のオブジェクトを検出される場合には、センサ200Aから取得される第1の出力情報に基づく移動量ベクトル、センサ200Bから取得される第1の出力情報に基づく移動量ベクトル、および携帯されている装置300Cから取得される第2の出力情報に基づく移動量ベクトルは、同一となる。
For example, when the same object is detected based on the output information of each of the
情報処理装置100は、上記のように、センサ200A、センサ200B、および携帯されている装置300Cそれぞれに対応する移動量ベクトルが同一となることを利用して、センサ200Aの対象世界モデルM1と、センサ200Bの対象世界モデルM1との対応付けを自動的に行う。例えば、新たに設置されたセンサ200Bの対象世界モデルM1が、設置されているセンサ200Aの対象世界モデルM1に対応付られることによって、新たに設置されたセンサ200Bから取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態とすることが可能となる。
As described above, the
ここで、情報処理装置100は、例えば図6に示すような通知を、ユーザに対して行わせることによって、積極的に、センサ200Aの対象世界モデルM1とセンサ200Bの対象世界モデルM1との対応付けを行ってもよい。
Here, for example, the
[4−3]ユースケースの第3の例
例えば複数のセンサ200を設置した場合には、ユーザが意図的に、または意図せずにセンサ200を動かしてしまうこともありうる。
[4-3] Third Example of Use Case For example, when a plurality of
ここで、上述したように、情報処理装置100は、例えば、センサ200が備える加速度センサなどの検出値によって、センサ200が移動したことを判定して、準備情報を再度修正することが可能である。
Here, as described above, for example, the
なお、センサ200が動いた場合における処理は、上記に示す例に限られない。
Note that the processing when the
例えば、情報処理装置100は、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルの評価によって、センサ200が動いたか否かを判定することが可能である。センサ200が動いたと判定された場合には、情報処理装置100は、準備情報を再度修正する。
For example, the
また、携帯されている装置300から取得される第2の出力情報に基づく移動量ベクトルの評価によって、センサ200が動いたか否かを判定する場合、情報処理装置100は、例えば、図7に示すような通知を、ユーザに対して行わせることによって、積極的に、判定を行ってもよい。
When determining whether or not the
[4−4]ユースケースの第4の例
上述したように、情報処理装置100は、ユーザが視線を向けることが予測される目標空間座標(上記(b)に示す未来の動きに対応する検出結果の一例)によって、準備情報を修正することが可能であるので、ユーザの意図を、センサ200におけるオブジェクトの検出結果に反映させることができる。
[4-4] Fourth Example of Use Case As described above, the
図11は、本実施形態に係る情報処理方法が適用可能なユースケースの他の例を説明するための説明図である。図11は、ユーザが、所望のオブジェクトに向かって腕を動かす動作を行う前に、所望のオブジェクトであるぬいぐるみOに視線を向けた例を示している。 FIG. 11 is an explanatory diagram for explaining another example of a use case to which the information processing method according to the present embodiment can be applied. FIG. 11 shows an example in which the user looks at the stuffed animal O, which is the desired object, before the user moves the arm toward the desired object.
情報処理装置100は、携帯されている装置300Cからユーザの視線に関する情報を取得し、目標空間座標を特定する。
The
その後、ユーザがぬいぐるみOに向かって腕を動かしたとき、腕の方向が、ぬいぐるみOが存在する方向とずれることが起こりうる。情報処理装置100は、例えば、目標空間座標に基づき準備情報を修正し、準備情報によって、センサ200A、センサ200Bそれぞれの第1の出力情報に基づく空間座標を、絶対空間座標(所定の座標系における座標値)へ変換する。
Thereafter, when the user moves the arm toward the stuffed toy O, the direction of the arm may be shifted from the direction in which the stuffed toy O exists. For example, the
上記のように、準備情報によりセンサ200A、センサ200Bそれぞれの第1の出力情報に基づく空間座標を、絶対空間座標へ変換されることによって、ユーザがぬいぐるみOに向かって腕を動かしたかったというユーザの意図を反映させることができる。また、他の状況においても、準備情報によりセンサ200A、センサ200Bそれぞれの第1の出力情報に基づく空間座標を、絶対空間座標(所定の座標系における座標値)へ変換することによって、ユーザの意図と、実際のユーザの操作によるセンサの検出結果との差を修正することができる。
As described above, the user wants to move his arm toward the stuffed animal O by converting the spatial coordinates based on the first output information of each of the
[5]本実施形態に係る情報処理方法が用いられることにより奏される効果の一例
本実施形態に係る情報処理方法が用いられることによって、例えば下記に示す効果が奏される。なお、本実施形態に係る情報処理方法が用いられることにより奏される効果が、下記に示す例に限られないことは、言うまでもない。
・センサ200のキャリブレーションの設定に際して、ユーザが身に付けているウェアラブルデバイス(携帯されている装置300の一例)から取得された第2の出力情報が用いられるので、センサ200のキャリブレーションに係る、ユーザの特別な専用操作が必要ない。また、上記ウェアラブルデバイス(携帯されている装置300の一例)では、汎用のセンサを利用することが可能であり、上記ウェアラブルデバイス(携帯されている装置300の一例)が専用のセンサを搭載している必要はない。
・使用環境に対応する準備情報が設定されることによって、センサ200から取得される第1の出力情報に基づくオブジェクトの検出結果の精度を、精度が高い状態に保つことができる。
・センサ200の数を増やした場合に、ウェアラブルデバイス(携帯されている装置300の一例)から取得される第2の出力情報を利用したセンサ200のキャリブレーションが可能である。ウェアラブルデバイス(携帯されている装置300の一例)から取得される第2の出力情報を利用したセンサ200のキャリブレーションが行われる場合には、センサ200の設置時に、センサ200のキャリブレーションに係る、ユーザの特別な専用操作が必要ない。
・ユーザの操作目標に対応する準備情報によって、センサ200の第1の出力情報に基づく空間座標を、絶対空間座標(所定の座標系における座標値)へ変換することによって、センサ200から取得される第1の出力情報に基づく検出結果に、ユーザの意図を反映させることができる。
[5] An example of the effect produced by using the information processing method according to the present embodiment The following effects can be obtained by using the information processing method according to the present embodiment, for example. Needless to say, the effects produced by using the information processing method according to the present embodiment are not limited to the examples shown below.
When the calibration of the
By setting the preparation information corresponding to the use environment, the accuracy of the object detection result based on the first output information acquired from the
When the number of
Obtained from the
(本実施形態に係る情報処理装置)
次に、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能な本実施形態に係る情報処理装置の構成の一例について、説明する。
(Information processing apparatus according to this embodiment)
Next, an example of the configuration of the information processing apparatus according to the present embodiment capable of performing the process according to the information processing method according to the present embodiment described above will be described.
図12は、本実施形態に係る情報処理装置100の構成の一例を示すブロック図である。情報処理装置100は、例えば、通信部102と、制御部104とを備える。
FIG. 12 is a block diagram illustrating an example of the configuration of the
また、情報処理装置100は、例えば、ROM(Read Only Memory。図示せず)や、RAM(Random Access Memory。図示せず)、記憶部(図示せず)、ユーザが操作可能な操作部(図示せず)、様々な画面を表示画面に表示する表示部(図示せず)などを備えていてもよい。情報処理装置100は、例えば、データの伝送路としてのバスにより上記各構成要素間を接続する。
The
ROM(図示せず)は、制御部104が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAM(図示せず)は、制御部104により実行されるプログラムなどを一時的に記憶する。
A ROM (not shown) stores control data such as programs and calculation parameters used by the
記憶部(図示せず)は、情報処理装置100が備える記憶手段であり、例えば、センサ200ごとの対象世界モデルM1を示すデータや、携帯されている装置300ごとの対象世界モデルM2を示すデータ、対象となる空間全体における対象世界モデルM3を示すデータ、センサ200ごとの準備情報などの、本実施形態に係る情報処理方法に係るデータや、各種アプリケーションなど様々なデータを記憶する。ここで、記憶部(図示せず)としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)などが挙げられる。また、記憶部(図示せず)は、情報処理装置100から着脱可能であってもよい。
The storage unit (not shown) is a storage unit included in the
操作部(図示せず)としては、後述する操作入力デバイスが挙げられる。また、表示部(図示せず)としては、後述する表示デバイスが挙げられる。 As the operation unit (not shown), an operation input device to be described later can be cited. Moreover, as a display part (not shown), the display device mentioned later is mentioned.
[情報処理装置100のハードウェア構成例]
図13は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す説明図である。情報処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、通信インタフェース164とを備える。また、情報処理装置100は、例えば、データの伝送路としてのバス166で各構成要素間を接続する。
[Hardware Configuration Example of Information Processing Apparatus 100]
FIG. 13 is an explanatory diagram illustrating an example of a hardware configuration of the
MPU150は、例えば、MPU(Micro Processing Unit)などの演算回路で構成される、1または2以上のプロセッサや、各種処理回路などで構成され、情報処理装置100全体を制御する制御部104として機能する。また、MPU150は、情報処理装置100において、例えば、後述する処理部110の役目を果たす。なお、処理部110は、処理を実現可能な専用の(または汎用の)回路で構成されていてもよい。
The
ROM152は、MPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。RAM154は、例えば、MPU150により実行されるプログラムなどを一時的に記憶する。
The
記録媒体156は、記憶部(図示せず)として機能し、例えば、センサ200ごとの対象世界モデルM1を示すデータや、携帯されている装置300ごとの対象世界モデルM2を示すデータ、対象となる空間全体における対象世界モデルM3を示すデータ、センサ200ごとの準備情報などの、本実施形態に係る情報処理方法に係るデータや、各種アプリケーションなど様々なデータを記憶する。ここで、記録媒体156としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリが挙げられる。また、記録媒体156は、情報処理装置100から着脱可能であってもよい。
The
入出力インタフェース158は、例えば、操作入力デバイス160や、表示デバイス162を接続する。操作入力デバイス160は、操作部(図示せず)として機能し、また、表示デバイス162は、表示部(図示せず)として機能する。ここで、入出力インタフェース158としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路などが挙げられる。
The input /
また、操作入力デバイス160は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。操作入力デバイス160としては、例えば、ボタンや、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。
For example, the
また、表示デバイス162は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。表示デバイス162としては、例えば、液晶ディスプレイ(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescence Display。または、OLEDディスプレイ(Organic Light Emitting Diode Display)ともよばれる。)などが挙げられる。
For example, the
なお、入出力インタフェース158が、情報処理装置100の外部装置としての外部操作入力デバイス(例えば、キーボードやマウスなど)や外部表示デバイスなどの、外部デバイスと接続することも可能であることは、言うまでもない。また、表示デバイス162は、例えばタッチパネルなど、表示とユーザ操作とが可能なデバイスであってもよい。
It goes without saying that the input /
通信インタフェース164は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、センサ200や携帯されている装置300などの外部装置と、無線または有線で通信を行うための通信部102として機能する。ここで、通信インタフェース164としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)などが挙げられる。
The
情報処理装置100は、例えば図13に示す構成によって、本実施形態に係る情報処理方法に係る処理を行う。なお、本実施形態に係る情報処理装置100のハードウェア構成は、図13に示す構成に限られない。
The
例えば、情報処理装置100は、接続されている外部の通信デバイスを介して外部装置などと通信を行う場合には、通信インタフェース164を備えていなくてもよい。また、通信インタフェース164は、複数の通信方式によって、1または2以上の外部装置と通信を行うことが可能な構成であってもよい。
For example, the
また、情報処理装置100は、例えば、記録媒体156や、操作入力デバイス160、表示デバイス162を備えない構成をとることが可能である。
Further, the
また、例えば、図13に示す構成(または変形例に係る構成)は、1、または2以上のIC(Integrated Circuit)で実現されてもよい。 Further, for example, the configuration shown in FIG. 13 (or a configuration according to a modification) may be realized by one or two or more ICs (Integrated Circuits).
再度図12を参照して、情報処理装置100の構成の一例について説明する。通信部102は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、センサ200や携帯されている装置300などの外部装置と、無線または有線で通信を行う。また、通信部102は、例えば制御部104により通信が制御される。
With reference to FIG. 12 again, an example of the configuration of the
ここで、通信部102としては、例えば、通信アンテナおよびRF回路や、LAN端子および送受信回路などが挙げられるが、通信部102の構成は、上記に限られない。例えば、通信部102は、USB端子および送受信回路などの通信を行うことが可能な任意の規格に対応する構成や、ネットワークを介して外部装置と通信可能な任意の構成をとることができる。また、通信部102は、複数の通信方式によって、1または2以上の外部装置と通信を行うことが可能な構成であってもよい。
Here, examples of the
制御部104は、例えばMPUなどで構成され、情報処理装置100全体を制御する役目を果たす。また、制御部104は、例えば、処理部110を備え、本実施形態に係る情報処理方法に係る処理を主導的に行う役目を果たす。
The
処理部110は、上記準備情報を生成する処理を主導的に行う役目を果たし、センサ200から取得される第1の対象に関する第1の出力情報と、携帯されている装置300から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う。処理部110は、例えば、センサ200から取得される第1の対象に関する第1の出力情報と、携帯されている装置300から取得される、第1の対象と関連する第2の対象に関する第2の出力情報とに基づいて、準備情報を修正する。
The
また、処理部110は、本実施形態に係る所定の処理をさらに行ってもよい。処理部110は、例えば、上記(I)の処理(変換処理)と上記(II)の処理(実行制御処理)との一方または双方を、本実施形態に係る所定の処理として行う。
The
制御部104は、例えば、処理部110を備えることによって、本実施形態に係る情報処理方法に係る処理(例えば、上記準備情報を生成する処理、および上記所定の処理)を主導的に行う。
The
情報処理装置100は、例えば図12に示す構成によって、本実施形態に係る情報処理方法に係る処理(例えば、上記準備情報を生成する処理、および上記所定の処理)を行う。
The
したがって、情報処理装置100は、例えば図12に示す構成によって、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。
Therefore, the
また、例えば図12に示す構成によって、情報処理装置100は、上述したような本実施形態に係る情報処理方法に係る処理が行われることにより奏される効果を、奏することができる。
Further, for example, with the configuration illustrated in FIG. 12, the
なお、本実施形態に係る情報処理装置の構成は、図12に示す構成に限られない。 Note that the configuration of the information processing apparatus according to the present embodiment is not limited to the configuration illustrated in FIG.
例えば、本実施形態に係る情報処理装置は、図12に示す処理部110を、制御部104とは個別に備える(例えば、プロセッサなどの別の処理回路で実現する)ことができる。
For example, the information processing apparatus according to the present embodiment can include the
また、上述したように、“上記準備情報を生成する処理”や“上記準備情報を生成する処理、および上記所定の処理”は、便宜上、本実施形態に係る情報処理方法に係る処理を切り分けたものである。よって、本実施形態に係る情報処理方法に係る処理を実現するための構成は、図12に示す処理部110に限られず、本実施形態に係る情報処理方法に係る処理の切り分け方に応じた構成をとることが可能である。
In addition, as described above, “the process for generating the preparation information” and “the process for generating the preparation information and the predetermined process” are separated from the processes related to the information processing method according to the present embodiment for convenience. Is. Therefore, the configuration for realizing the processing according to the information processing method according to the present embodiment is not limited to the
また、例えば、通信部102と同様の機能、構成を有する外部の通信デバイスを介して外部装置と通信を行う場合には、本実施形態に係る情報処理装置は、通信部102を備えていなくてもよい。
Further, for example, when communicating with an external device via an external communication device having the same function and configuration as the
また、本実施形態に係る情報処理装置は、例えば、図12に示す処理部110が上記所定の処理を行わない構成であってもよい。
Further, the information processing apparatus according to the present embodiment may be configured such that, for example, the
例えば、図12に示す処理部110が上記所定の処理を行わない構成であっても、本実施形態に係る情報処理装置は、上記準備情報を生成する処理を行うことが可能であるので、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。また、例えば、図12に示す処理部110が上記所定の処理を行わない構成であっても、本実施形態に係る情報処理装置は、上記準備情報を生成する処理が行われることにより奏される効果を、奏することができる。
For example, even if the
以上、本実施形態として、情報処理装置を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、PC(Personal Computer)やサーバなどのコンピュータや、空間に設置されている本実施形態に係るセンサ、携帯電話やスマートフォンなどの通信装置、タブレット型の装置など、本実施形態に係る情報処理方法に係る処理を行うことが可能な、様々な機器に適用することができる。また、本実施形態は、例えば、上記のような機器に組み込むことが可能な、処理ICに適用することもできる。 As described above, the information processing apparatus has been described as the present embodiment, but the present embodiment is not limited to such a form. The present embodiment is, for example, a computer such as a PC (Personal Computer) or a server, a sensor according to the present embodiment installed in a space, a communication device such as a mobile phone or a smartphone, or a tablet device. The present invention can be applied to various devices that can perform the processing related to the information processing method. In addition, the present embodiment can be applied to a processing IC that can be incorporated in the above-described device, for example.
また、本実施形態に係る情報処理装置は、例えばクラウドコンピューティングなどのように、ネットワークへの接続(または各装置間の通信)を前提とした、1または2以上の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置により本実施形態に係る情報処理方法に係る処理を行う情報処理システムとして実現することも可能である。 In addition, the information processing apparatus according to the present embodiment is applied to a system including one or two or more apparatuses that are premised on connection to a network (or communication between apparatuses) such as cloud computing. May be. That is, the information processing apparatus according to the present embodiment described above can be realized as an information processing system that performs processing according to the information processing method according to the present embodiment using a plurality of apparatuses, for example.
(本実施形態に係るプログラム)
コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(例えば、“上記準備情報を生成する処理”や、“上記準備情報を生成する処理、および上記所定の処理”など、本実施形態に係る情報処理方法に係る処理を実行することが可能なプログラム)が、コンピュータにおいてプロセッサなどにより実行されることによって、空間の所定の範囲をセンシングするセンサが用いられる場合において、ユーザの利便性の向上を図ることができる。
(Program according to this embodiment)
A program for causing a computer to function as the information processing apparatus according to the present embodiment (for example, “the process for generating the preparation information”, “the process for generating the preparation information, and the predetermined process”). When a sensor that senses a predetermined range of space is used by executing a program that can execute a process related to an information processing method according to an embodiment by a processor or the like in a computer, the convenience of the user Can be improved.
また、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラムが、コンピュータにおいてプロセッサなどにより実行されることによって、上述した本実施形態に係る情報処理方法に係る処理によって奏される効果を、奏することができる。 In addition, an effect produced by the processing related to the information processing method according to the above-described embodiment by executing a program for causing the computer to function as the information processing apparatus according to the present embodiment by a processor or the like in the computer. Can be played.
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
例えば、上記では、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(コンピュータプログラム)が提供されることを示したが、本実施形態は、さらに、上記プログラムを記憶させた記録媒体も併せて提供することができる。 For example, in the above description, it has been shown that a program (computer program) for causing a computer to function as the information processing apparatus according to the present embodiment is provided. However, the present embodiment further includes a recording in which the program is stored. A medium can also be provided.
上述した構成は、本実施形態の一例を示すものであり、当然に、本開示の技術的範囲に属するものである。 The configuration described above shows an example of the present embodiment, and naturally belongs to the technical scope of the present disclosure.
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行う処理部を備え、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置。
(2)
前記準備情報は、前記センサと所定の座標系との対応づけを制御するための情報である、(1)に記載の情報処理装置。
(3)
前記準備情報は、前記第3の出力情報に基づいて得られる対象の位置情報を、前記所定の座標系における座標値へ変換する処理に利用される情報である、(2)に記載の情報処理装置。
(4)
前記第1の対象と前記第2の対象とは、関連する対象である、(1)〜(3)のいずれか1つに記載の情報処理装置。
(5)
前記第1の対象の動きに応じて前記第2の対象が動く、(4)に記載の情報処理装置。
(6)
前記準備情報を生成する処理は、前記準備情報を修正する処理である、(1)〜(5)のいずれか1つに記載の情報処理装置。
(7)
前記処理部は、前記第1の出力情報に基づく第1の対象の検出結果と、前記第2の出力情報に基づく第2の対象の検出結果とに基づいて、前記準備情報を修正する、(6)に記載の情報処理装置。
(8)
前記処理部は、前記第1の対象の検出結果である前記第1の対象の動き情報と、前記第2の対象の検出結果ある前記第2の対象の動き情報とを比較し、動きの比較結果に基づいて前記準備情報を修正する、(7)に記載の情報処理装置。
(9)
前記動きの比較結果に基づく前記準備情報の修正は、前記第1の出力情報に基づく前記第1の対象の位置の位置ずれの修正である、(8)に記載の情報処理装置。
(10)
前記動きの比較結果に基づく前記準備情報の修正は、前記第1の対象の動き情報に対応する時間と前記第2の対象の動き情報に対応する時間との時間ずれの修正をさらに含む、(9)に記載の情報処理装置。
(11)
前記処理部は、前記第1の対象の検出結果である前記第1の対象に対応する空間座標と、前記第2の対象の検出結果である前記第2の対象に対応する空間座標とを比較し、空間座標の比較結果に基づいて前記準備情報を修正する、(7)〜(10)のいずれか1つに記載の情報処理装置。
(12)
前記処理部は、空間座標の比較結果に基づく前記準備情報の修正に係る修正パラメータを、前記携帯されている装置のユーザを示す識別情報と対応付けて記録させる、(11)に記載の情報処理装置。
(13)
前記処理部は、前記識別情報が取得された場合には、取得された前記識別情報と対応付けられている前記修正パラメータによって、前記準備情報を修正する、(12)に記載の情報処理装置。
(14)
前記処理部は、前記準備情報を生成する処理を、非定期的に行う、(1)〜(13)のいずれか1つに記載の情報処理装置。
(15)
前記処理部は、前記準備情報を生成する処理を、ユーザの所定の動作が検出されたときに行う、(1)〜(14)のいずれか1つに記載の情報処理装置。
(16)
前記処理部は、新たな前記センサが検出された場合、または、既存の前記センサの位置の移動が検出された場合には、前記所定の動作を行わせるための通知を制御する、(15)に記載の情報処理装置。
(17)
前記第1の対象と前記第2の対象とは、手または腕である、(5)に記載の情報処理装置。
(18)
前記携帯されている装置は、手または腕に装着される装置である、(1)〜(17)のいずれか1つに記載の情報処理装置。
(19)
前記センサは、イメージセンサである、(1)〜(18)のいずれか1つに記載の情報処理装置。
(20)
実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップを有し、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置により実行される情報処理方法。
(21)
実空間の所定の範囲をセンシングするセンサから取得される第1の対象に関する第1の出力情報と、ユーザにより携帯されている装置から取得される第2の対象に関する第2の出力情報とに基づいて、準備情報を生成する処理を行うステップをコンピュータに実行させ、
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、プログラム。
(22)
前記処理部は、前記第3の出力情報と前記準備情報とに基づいて、所定の処理をさらに行う、(1)〜(19)のいずれか1つに記載の情報処理装置。
(23)
前記携帯されている装置から取得される前記第2の出力情報は、モーションセンサの出力情報である、(1)〜(19)、(22)のいずれか1つに記載の情報処理装置。
The following configurations also belong to the technical scope of the present disclosure.
(1)
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And a processing unit for generating preparation information,
The information processing apparatus, wherein the preparation information is used for generating operation information based on third output information acquired from the sensor.
(2)
The information processing apparatus according to (1), wherein the preparation information is information for controlling association between the sensor and a predetermined coordinate system.
(3)
The information for information processing according to (2), wherein the preparation information is information used for processing for converting target position information obtained based on the third output information into coordinate values in the predetermined coordinate system. apparatus.
(4)
The information processing apparatus according to any one of (1) to (3), wherein the first object and the second object are related objects.
(5)
The information processing apparatus according to (4), wherein the second object moves according to the movement of the first object.
(6)
The process for generating the preparation information is the information processing apparatus according to any one of (1) to (5), wherein the preparation information is a process for correcting the preparation information.
(7)
The processing unit corrects the preparation information based on a detection result of a first object based on the first output information and a detection result of a second object based on the second output information. The information processing apparatus according to 6).
(8)
The processing unit compares the motion information of the first target that is the detection result of the first target with the motion information of the second target that is the detection result of the second target, and compares the motion The information processing apparatus according to (7), wherein the preparation information is corrected based on a result.
(9)
The information processing apparatus according to (8), wherein the correction of the preparation information based on the movement comparison result is correction of a positional shift of the position of the first target based on the first output information.
(10)
The correction of the preparation information based on the motion comparison result further includes correction of a time lag between a time corresponding to the motion information of the first target and a time corresponding to the motion information of the second target. The information processing apparatus according to 9).
(11)
The processing unit compares the spatial coordinates corresponding to the first object, which is the detection result of the first object, and the spatial coordinates corresponding to the second object, which is the detection result of the second object. Then, the information processing apparatus according to any one of (7) to (10), wherein the preparation information is corrected based on a comparison result of spatial coordinates.
(12)
The information processing unit according to (11), wherein the processing unit records a correction parameter related to the correction of the preparation information based on a comparison result of spatial coordinates in association with identification information indicating a user of the portable device. apparatus.
(13)
The information processing apparatus according to (12), wherein when the identification information is acquired, the processing unit corrects the preparation information with the correction parameter associated with the acquired identification information.
(14)
The information processing apparatus according to any one of (1) to (13), wherein the processing unit performs the process of generating the preparation information irregularly.
(15)
The information processing apparatus according to any one of (1) to (14), wherein the processing unit performs the process of generating the preparation information when a user's predetermined operation is detected.
(16)
When the new sensor is detected or when the movement of the position of the existing sensor is detected, the processing unit controls notification for causing the predetermined operation to be performed (15) The information processing apparatus described in 1.
(17)
The information processing apparatus according to (5), wherein the first object and the second object are hands or arms.
(18)
The information processing apparatus according to any one of (1) to (17), wherein the portable device is a device worn on a hand or an arm.
(19)
The information processing apparatus according to any one of (1) to (18), wherein the sensor is an image sensor.
(20)
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And a step of performing processing for generating preparation information,
The information processing method executed by an information processing apparatus, wherein the preparation information is used to generate operation information based on third output information acquired from the sensor.
(21)
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And causing the computer to execute a step of generating the preparation information,
The preparation information is a program used for generating operation information based on third output information acquired from the sensor.
(22)
The information processing apparatus according to any one of (1) to (19), wherein the processing unit further performs a predetermined process based on the third output information and the preparation information.
(23)
The information processing apparatus according to any one of (1) to (19) and (22), wherein the second output information acquired from the portable apparatus is output information of a motion sensor.
100 情報処理装置
102 通信部
104 制御部
110 処理部
200、200A、200B センサ
300、300A、300B、300C 携帯されている装置
DESCRIPTION OF
Claims (21)
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置。 Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And a processing unit for generating preparation information,
The information processing apparatus, wherein the preparation information is used for generating operation information based on third output information acquired from the sensor.
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、情報処理装置により実行される情報処理方法。 Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And a step of performing processing for generating preparation information,
The information processing method executed by an information processing apparatus, wherein the preparation information is used to generate operation information based on third output information acquired from the sensor.
前記準備情報は、前記センサから取得される第3の出力情報に基づいて操作情報を生成するために使われる、プログラム。
Based on first output information related to a first object acquired from a sensor that senses a predetermined range in real space, and second output information related to a second object acquired from a device carried by the user. And causing the computer to execute a step of generating the preparation information,
The preparation information is a program used for generating operation information based on third output information acquired from the sensor.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015074157A JP2016194798A (en) | 2015-03-31 | 2015-03-31 | Information processing device, information processing method, and program |
PCT/JP2016/051222 WO2016157938A1 (en) | 2015-03-31 | 2016-01-18 | Information processing device, information processing method, and program |
US15/560,005 US10359837B2 (en) | 2015-03-31 | 2016-01-18 | Information processing device and information processing method |
EP16771824.6A EP3279768A4 (en) | 2015-03-31 | 2016-01-18 | Information processing device, information processing method, and program |
CN201680017783.1A CN107407968B (en) | 2015-03-31 | 2016-01-18 | Information processing apparatus, information processing method, and program |
US16/406,320 US10572003B2 (en) | 2015-03-31 | 2019-05-08 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015074157A JP2016194798A (en) | 2015-03-31 | 2015-03-31 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016194798A true JP2016194798A (en) | 2016-11-17 |
Family
ID=57323924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015074157A Pending JP2016194798A (en) | 2015-03-31 | 2015-03-31 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016194798A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018151886A (en) * | 2017-03-13 | 2018-09-27 | オムロン株式会社 | Environment sensor |
JP2018151882A (en) * | 2017-03-13 | 2018-09-27 | オムロン株式会社 | Environment sensor |
-
2015
- 2015-03-31 JP JP2015074157A patent/JP2016194798A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018151886A (en) * | 2017-03-13 | 2018-09-27 | オムロン株式会社 | Environment sensor |
JP2018151882A (en) * | 2017-03-13 | 2018-09-27 | オムロン株式会社 | Environment sensor |
US11022624B2 (en) | 2017-03-13 | 2021-06-01 | Omron Corporation | Environmental sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6424601B2 (en) | Display control method, information processing program, and information processing apparatus | |
EP3559789B1 (en) | Magnetic interference detection and correction | |
US10572003B2 (en) | Information processing device and information processing method | |
TW201346640A (en) | Image processing device, and computer program product | |
CN109313502B (en) | Tap event location using selection device | |
JP2011170538A (en) | Information processor, information processing method and program | |
US10140002B2 (en) | Information processing apparatus, information processing method, and program | |
US10296096B2 (en) | Operation recognition device and operation recognition method | |
JP6911834B2 (en) | Information processing equipment, information processing methods, and programs | |
WO2018083910A1 (en) | Information processing device, information processing method, and recording medium | |
KR20170076534A (en) | Virtual reality interface apparatus and method for controlling the apparatus | |
JP2016194755A (en) | Information processing device, information processing method, and program | |
JP2016162079A (en) | Display control method, display control program, and information processing apparatus | |
CN106663412B (en) | Information processing apparatus, information processing method, and program | |
US20230054973A1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP6447521B2 (en) | Information processing apparatus, information processing method, and program | |
US10321008B2 (en) | Presentation control device for controlling presentation corresponding to recognized target | |
JP2016194798A (en) | Information processing device, information processing method, and program | |
WO2017047233A1 (en) | Information processing apparatus, information processing method, and program | |
JP2023111956A (en) | Object posture control program and information processing device | |
JP2016192014A (en) | Information processing device, information processing method, and program | |
KR101719454B1 (en) | Method and apparatus for generating keyboard typing motion | |
JP6471694B2 (en) | Information processing apparatus, information processing method, program, and information processing system | |
TWI737068B (en) | Motion tracking system and method | |
CN113316753B (en) | Direct manipulation of display devices using wearable computing devices |