JP6681278B2 - Position detection system and position detection method - Google Patents
Position detection system and position detection method Download PDFInfo
- Publication number
- JP6681278B2 JP6681278B2 JP2016110445A JP2016110445A JP6681278B2 JP 6681278 B2 JP6681278 B2 JP 6681278B2 JP 2016110445 A JP2016110445 A JP 2016110445A JP 2016110445 A JP2016110445 A JP 2016110445A JP 6681278 B2 JP6681278 B2 JP 6681278B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- captured image
- position detection
- detection system
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Description
本発明は、位置検出システム及び位置検出方法に関する。 The present invention relates to a position detection system and a position detection method.
従来、カメラを使用して物体の位置を検出するシステムが知られている。例えば、特許文献1には、マーカー検出用カメラを使用して自発光型マーカーが発する赤外線を検出することにより、自発光型マーカーを備える位置姿勢被計測物体の位置を特定するシステムが開示されている。 Conventionally, there is known a system that detects the position of an object using a camera. For example, Patent Document 1 discloses a system for identifying the position of a position / orientation measured object including a self-luminous marker by detecting infrared rays emitted by the self-luminous marker using a marker detection camera. There is.
しかしながら、従来のシステムには、例えば利便性向上の観点から、改善の余地があった。 However, the conventional system has room for improvement, for example, from the viewpoint of improving convenience.
かかる事情に鑑みてなされた本発明の目的は、利便性を向上させた位置検出システム及び位置検出方法を提供することにある。 An object of the present invention made in view of such circumstances is to provide a position detection system and a position detection method with improved convenience.
本発明の一実施形態に係る位置検出システムは、対象物に係る第1撮像画像を取得する第1撮像部と、前記対象物に係る第2撮像画像を取得する第2撮像部と、前記第1撮像画像及び前記第2撮像画像に基づいて前記対象物の位置を算出し、複数の該対象物を識別する制御部とを備える。前記制御部は、前記複数の対象物のうちの少なくとも一つがロスト状態となり、少なくとも1つの前記対象物の識別ができなくなると、前記複数の対象物に対する再識別処理を実行する。 A position detection system according to an embodiment of the present invention includes a first imaging unit that acquires a first captured image of an object, a second imaging unit that acquires a second captured image of the object, and A control unit that calculates the position of the target object based on one captured image and the second captured image and identifies a plurality of target objects. When at least one of the plurality of objects is in a lost state and the at least one object cannot be identified, the control unit executes a re-identification process for the plurality of objects.
また、本発明の一実施形態に係る位置検出方法は、対象物に係る第1撮像画像を取得する第1撮像部と、前記対象物に係る第2撮像画像を取得する第2撮像部とを備える位置検出システムにおける位置検出方法である。前記位置検出方法は、前記第1撮像画像及び前記第2撮像画像に基づいて前記対象物の位置を算出し、複数の該対象物を識別するステップと、前記複数の対象物のうちの少なくとも一つがロスト状態となり、少なくとも1つの前記対象物の識別ができなくなると、前記複数の対象物に対する再識別処理を実行するステップと、を含む。 In addition, a position detection method according to an embodiment of the present invention includes a first imaging unit that acquires a first captured image of an object and a second imaging unit that acquires a second captured image of the object. It is a position detection method in a position detection system provided. The position detecting method calculates a position of the target object based on the first captured image and the second captured image to identify a plurality of target objects, and at least one of the plurality of target objects. When one of the objects is lost, and at least one of the objects cannot be identified, a re-identification process is performed on the plurality of objects.
本発明によれば、利便性を向上させた位置検出システム及び位置検出方法を提供できる。 According to the present invention, a position detection system and a position detection method with improved convenience can be provided.
以下、本発明の一実施形態について、図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施形態に係る位置検出システム100の概略構成を示す機能ブロック図である。本実施形態に係る位置検出システム100は、複数の撮像装置と、各撮像装置と通信可能に構成される情報処理装置130とを備える。本実施形態では、図1に示すように、位置検出システム100は、複数の撮像装置として、第1撮像装置110と、第2撮像装置120という、2つの撮像装置を備える。位置検出システム100は、3つ以上の撮像装置を備えていてもよい。
FIG. 1 is a functional block diagram showing a schematic configuration of a
図2は、図1の位置検出システム100による位置検出原理について説明する概略図である。本実施形態に係る位置検出システム100では、第1撮像装置110及び第2撮像装置120が、位置検出の対象である対象物Pを撮像し、情報処理装置130が、第1撮像装置110及び第2撮像装置120が取得した撮像画像に基づいて、対象物Pの位置を算出する。第1撮像装置110及び第2撮像装置120は、図2に一例として示すように、それぞれ異なる方向から対象物Pを撮像する。本実施形態において、対象物Pは、例えば700〜1500nm程度の近赤外線を発する赤外線LED(発光ダイオード:Light Emitting Diode)であるとして説明する。
FIG. 2 is a schematic diagram illustrating the principle of position detection by the
再び図1を参照すると、第1撮像装置110は、制御部111と、記憶部112と、通信部113と、第1撮像部114とを備える。第1撮像装置110は、対象物Pを撮像し、撮像画像を情報処理装置130に送信する。
Referring back to FIG. 1, the
制御部111は、第1撮像装置110が備える各機能ブロックをはじめとして、第1撮像装置110の全体を制御及び管理するプロセッサである。制御部111は、制御手順を規定したプログラムを実行するCPU(Central Processing Unit)等のプロセッサで構成される。プロセッサにより実行されるプログラムは、例えば記憶部112又は外部の記憶媒体等に格納される。制御部111は、例えば第1撮像部114による撮像処理の制御を行う。
The control unit 111 is a processor that controls and manages the entire
記憶部112は、多様なメモリデバイスを有し、用途に応じてそれぞれ各種情報、例えば制御部111の動作に必要なデータ等を記憶する。また、記憶部112は、ワークメモリとして機能するRAM(Random Access Memory)等のデバイスも有する。記憶部112は、例えば第1撮像部114が撮像して取得した撮像画像(以下「第1撮像画像」ともいう)を記憶してもよい。
The
通信部113は、情報処理装置130と有線通信又は無線通信を行うことにより、各種情報の送受信を行う。例えば、第1撮像装置110は、通信部113を介して、第1撮像画像を情報処理装置130に送信する。
The
第1撮像部114は、対象物Pを撮像する。第1撮像部114は、光を電気信号に変換することにより素子上に投影された画像を撮像する撮像素子(イメージセンサ)を備える。本実施形態では、第1撮像部114は、対象物Pが発する近赤外光を検出する赤外線カメラである。
The
第2撮像装置120は、制御部121と、記憶部122と、通信部123と、第2撮像部124とを備える。制御部121、記憶部122、通信部123及び第2撮像部124の各機能は、それぞれ第1撮像装置110の制御部111、記憶部112、通信部113及び第1撮像部114と同様であるため、ここではその詳細な説明を省略する。なお、本明細書において、第2撮像部124が撮像して取得した撮像画像を、以下「第2撮像画像」ともいう。
The
情報処理装置130は、制御部131と、記憶部132と、通信部133とを備える。情報処理装置130は、第1撮像装置110及び第2撮像装置120が取得した撮像画像に基づいて、対象物Pの位置を算出する。
The
制御部131は、情報処理装置130が備える各機能ブロックをはじめとして、情報処理装置130の全体を制御及び管理するプロセッサである。制御部131は、制御手順を規定したプログラムを実行するCPU等のプロセッサで構成される。プロセッサにより実行されるプログラムは、例えば記憶部132又は外部の記憶媒体等に格納される。制御部131は、第1撮像装置110が取得した第1撮像画像と、第2撮像装置120が取得した第2撮像画像とに基づいて、検出対象の位置を算出する。制御部131による検出対象の位置の算出処理の詳細については、後述する。
The
記憶部132は、多様なメモリデバイスを有し、用途に応じてそれぞれ各種情報、例えば制御部131の動作に必要なデータ等を記憶する。また、記憶部132は、ワークメモリとして機能するRAM等のデバイスも有する。記憶部132は、例えば第1撮像装置110及び第2撮像装置120からそれぞれ取得した第1撮像画像及び第2撮像画像を記憶してもよい。また、記憶部132は、例えば算出した対象物の位置の履歴を記憶してもよい。情報処理装置130は、対象物の位置の履歴に基づき、対象物の変位(軌跡)を算出できる。
The
通信部133は、第1撮像装置110及び第2撮像装置120と有線通信又は無線通信を行うことにより、各種情報の送受信を行う。例えば、情報処理装置130は、通信部133を介して、第1撮像画像及び第2撮像画像を、それぞれ第1撮像装置110及び第2撮像装置120から取得する。
The
次に、図2を参照しながら、情報処理装置130による検出対象の位置の算出処理の詳細について説明する。
Next, the details of the process of calculating the position of the detection target by the
図2には、第1撮像装置110の撮像範囲A及び第2撮像装置120の撮像範囲Bが、それぞれ仮想的に示されている。すなわち、図2において、撮像範囲Aは、第1撮像装置110が取得した第1撮像画像を仮想的に示し、撮像範囲Bは、第2撮像装置120が取得した第2撮像画像を仮想的に示す。第1撮像画像及び第2撮像画像には、それぞれ画像平面上の所定の位置に、対象物Pが映っている。第1撮像画像及び第2撮像画像において、対象物Pが映っている位置の座標は、例えば、それぞれ第1撮像部114及び第2撮像部124の注視点を基準にして定められる。
In FIG. 2, the imaging range A of the
本実施形態において、第1撮像装置110及び第2撮像装置120の位置ベクトルを、それぞれベクトルc1及びベクトルc2で示す。また、第1撮像装置110から対象物Pに向かう方向ベクトルをベクトルaで、第2撮像装置120から対象物Pに向かう方向ベクトルをベクトルbで示す。方向ベクトルaは、例えば第1撮像部114が備える撮像素子の位置から第1撮像画像の画像平面上における検出対象Pに向かう方向ベクトルとして定義される。また、同様に、方向ベクトルbは、例えば第2撮像部124が備える撮像素子の位置から第2撮像画像の画像平面上における対象物Pに向かう方向ベクトルとして定義される。方向ベクトルa及び方向ベクトルbは、例えば、情報処理装置130の制御部131が、それぞれ第1撮像画像及び第2撮像画像に基づいて算出する。なお、図2では、方向ベクトルa及び方向ベクトルbの長さは、例示的なものとして示している。また、対象物Pの位置ベクトルをベクトルpで表す。
In the present embodiment, the position vectors of the
対象物Pの位置ベクトルpは、位置ベクトルc1及び方向ベクトルaを用いて、下式(1)のように表される。情報処理装置130の制御部131は、位置ベクトルpを、下式(1)のように設定する。
The position vector p of the object P is represented by the following expression (1) using the position vector c 1 and the direction vector a. The
式(1)において、nは、実数であり、例えば第1撮像部114のセンサ位置から検出対象Pまでの距離に応じて定まる。nが算出(決定)されることにより、位置ベクトルpが定まり、対象物Pの位置が定まる。
In Expression (1), n is a real number, and is determined according to the distance from the sensor position of the
ここで、第2撮像装置120から対象物Pに向かう方向ベクトル(ここではベクトルdとする)は、第2撮像装置120の位置ベクトルc2を用いて、下式(2)のように表すことができる。制御部131は、方向ベクトルdを算出する。
Here, the direction vector (here, vector d) from the second
上式(2)に示す方向ベクトルdは、第2撮像装置120から対象物Pに向かう方向ベクトルとして定義したため、方向ベクトルbと方向が等しい。従って、方向ベクトルdと方向ベクトルbとのなす角が0°であるため、方向ベクトルdと方向ベクトルbとの外積の大きさは0となる。これを式で表現すると、下式(3)のように表現される。
Since the direction vector d shown in the above equation (2) is defined as the direction vector from the
上式(3)を、nについて解くと、下式(4)が導出される。 By solving the above equation (3) for n, the following equation (4) is derived.
上式(4)を、上式(1)に代入すると、位置ベクトルpは、下式(5)のように表される。 By substituting the above equation (4) into the above equation (1), the position vector p is expressed by the following equation (5).
上式(5)において、位置ベクトルc1及び位置ベクトルc2は、それぞれ第1撮像装置110及び第2撮像装置120を設置した位置により定まる。また、方向ベクトルa及び方向ベクトルbは、それぞれ第1撮像装置110及び第2撮像装置120が取得した第1撮像画像及び第2撮像画像から、情報処理装置130が算出することができる。従って、情報処理装置130は、上式(5)を用いて、対象物Pの位置ベクトルpを算出できる。制御部131は、式(3)から式(5)に示すように、方向ベクトルdと方向ベクトルbとに基づいて、対象物Pの位置を算出する。とくに、制御部131は、方向ベクトルdと方向ベクトルbとの外積の値に基づいて、外積の値が0であると仮定して、対象物Pの位置を算出する。このようにして、位置検出システム100によれば、対象物Pの位置を特定可能である。
In the above equation (5), the position vector c 1 and the position vector c 2 are determined by the positions where the
また、本実施形態に係る位置検出システム100によれば、第1撮像装置110及び第2撮像装置120が、それぞれ異なる方向から、対象物Pを撮像する。そのため、例えばステレオカメラ等のように、2つのカメラを使用して1つの方向から撮像した画像に基づいて、視差を利用して距離を算出するシステムと比較して、本実施形態に係る位置検出システム100は、位置検出の精度が向上する。
Further, according to the
位置検出システム100は、第1撮像装置110及び第2撮像装置120による、各撮像フレームごと、又は所定の数フレームごとに、対象物Pの位置を特定してもよい。
The
次に、上述の位置検出システム100の応用例について説明する。本明細書では、位置検出システム100を、ユーザの頭部に装着される表示装置であるヘッドマウントディスプレイ(HMD:Head Mounted Display)の位置の特定に応用する場合の一例について説明する。位置検出システム100を応用した情報表示システムでは、上述の位置検出システム100によりHMDの位置を特定し、特定した位置に応じた情報をHMDが備える表示部に表示する。
Next, an application example of the
図3は、位置検出システム100を応用した情報表示システム200の概略構成を示す機能ブロック図である。図3に示すように、情報表示システム200は、位置検出システム100が含む第1撮像装置110、第2撮像装置120及び情報処理装置130に加え、HMD140を備える。情報処理装置130と、HMD140とは、有線又は無線を介して通信可能に構成される。
FIG. 3 is a functional block diagram showing a schematic configuration of an
図4は、HMD140の一例を示す外観斜視図である。HMD140は、ユーザが頭部に装着可能な略半球形状の装着部141と、ユーザがHMD140を装着した際にユーザに対して情報を表示する表示部142と、光源143とを備える。本実施形態では、HMD140は、図4に示すように、2つの光源143a及び143bを備えるとして説明する。なお、2つの光源143a及び143bを区別しない場合には、まとめて光源143と記載する。
FIG. 4 is an external perspective view showing an example of the
再び図3を参照すると、HMD140は、表示部142と、光源143と、制御部144と、記憶部145と、通信部146と、角速度検出部147とを備える。
Referring again to FIG. 3, the
表示部142は、HMD140を装着したユーザに情報を表示する。表示部142は、例えば情報を表示する液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)等のディスプレイと、ディスプレイを保持するハウジングとを有する。図4には、ユーザの視線を外界から遮断するハウジングを有する、いわゆる没入型の表示部142が示されているが、表示部142は、没入型に限られない。表示部142は、例えば、ユーザが表示部142を介して外界を視認可能ないわゆる透過型(シースルー型)であってもよい。
The
光源143は、第1撮像装置110及び第2撮像装置120により検出される光を発するものであり、図2で説明した対象物Pに相当するものである。光源143は、例えば図2で説明したものと同様に、近赤外光を発する赤外線LEDである。本実施形態では、2つの光源143a及び143bは、図4に一例として示すように、ユーザがHMD140を装着した際に、前後方向に配列されるように、装着部141に設けられる。
The
制御部144は、HMD140が備える各機能ブロックをはじめとして、HMD140の全体を制御及び管理するプロセッサである。制御部144は、制御手順を規定したプログラムを実行するCPU等のプロセッサで構成される。プロセッサにより実行されるプログラムは、例えば記憶部145又は外部の記憶媒体等に格納される。制御部144は、例えば、ユーザの位置及びユーザの頭部の向き等に基づいて、表示部142に多様な情報を表示する。具体的には、制御部144は、例えばユーザの位置及び頭部の向きに追従した仮想空間を表示部142に表示させる。なお、ユーザの位置は、情報処理装置130によって特定される、ユーザが装着したHMD140の位置により定められる。また、ユーザの頭部の向きは、例えば、頭部の3軸方向における向き又は向きの変化等を含む。
The
記憶部145は、多様なメモリデバイスを有し、用途に応じてそれぞれ各種情報、例えば制御部144の動作に必要なデータ等を記憶する。また、記憶部145は、ワークメモリとして機能するRAM等のデバイスも有する。また、記憶部145は、例えば表示部142に表示する仮想空間に関する各種データを記憶する。
The
通信部146は、情報処理装置130と有線通信又は無線通信を行うことにより、各種情報の送受信を行う通信インターフェースを有する。例えば、HMD140は、通信部146を介して、情報処理装置130から、第1撮像画像及び第2撮像画像に基づいて情報処理装置130が特定したHMD140の位置に関する情報を取得する。
The
角速度検出部147は、例えばHMD140の角速度の変化を検出するセンサである。角速度検出部147は、例えばジャイロセンサにより構成される。なお、角速度検出部147は、ジャイロセンサに限られない。角速度検出部147は、HMD140の角度変化を検出できればよい。従って、角速度検出部147は、例えば、加速度センサ、角度センサ、その他のモーションセンサ、又はこれらのセンサの組合せ等によって構成されていてもよい。角速度検出部147が検出した角速度の変化に関する情報は、制御部144に送信される。制御部144は、角速度検出部147から取得した角速度の変化に関する情報に基づき、ユーザの頭部の向きを推定できる。
The angular velocity detection unit 147 is a sensor that detects a change in the angular velocity of the
次に、情報表示システム200における仮想空間の表示処理について、図5を参照して説明する。
Next, a virtual space display process in the
まず、第1撮像装置110が、光源143の画像を撮像することにより、第1撮像画像を取得する(ステップS201)。
First, the
第1撮像装置110は、取得した第1撮像画像を情報処理装置130に送信する(ステップS202)。
The
また、第2撮像装置120が、光源143の画像を撮像することにより、第2撮像画像を取得する(ステップS203)。
In addition, the
第2撮像装置120は、取得した第2撮像画像を情報処理装置130に送信する(ステップS204)。
The
なお、第1撮像装置110によるステップS201及びS202の処理と、第2撮像装置120によるステップS203及びS204の処理とは、同時に実行されてもよい。
The processes of steps S201 and S202 by the
情報処理装置130は、第1撮像装置110及び第2撮像装置120から、それぞれ第1撮像画像及び第2撮像画像を取得すると、取得した撮像画像に基づいて、HMD140の位置を特定する(ステップS205)。具体的には、情報処理装置130は、例えば予め記憶部132に記憶された第1撮像装置110の位置及び第2撮像装置120の位置と、取得した撮像画像とを用いて、式(5)により、光源143の位置を算出することにより、HMD140の位置を特定する。
When the
情報処理装置130は、特定したHMD140の位置に関する情報をHMD140に送信する(ステップS206)。
The
HMD140は、角速度検出部147を用いて、HMD140の角速度の変化に関する情報を取得する(ステップS207)。
The
そして、HMD140は、角速度検出部147が取得した角速度の変化に関する情報に基づいて、ユーザの頭部の向きを推定する(ステップS208)。
Then, the
HMD140は、ステップS206で情報処理装置130から取得した位置に関する情報と、ステップS208で推定した頭部の向きに基づいて、表示部142に仮想空間を表示する(ステップS209)。
The
このようにして、情報表示システム200は、HMD140の位置とユーザの頭部の向きとに基づいて、表示部142に仮想空間を表示する。情報表示システム200では、上述の位置検出システム100を応用して、HMD140の位置を特定しているため、HMD140の位置を正確に特定しやすくなる。
In this way, the
続いて、図6を参照して、位置検出システム100を、複数のHMD140の位置の特定に応用する場合の一例について説明する。
Next, with reference to FIG. 6, an example in which the
図6は、位置検出システム100を応用した情報表示システム300の概略構成を示す機能ブロック図である。図6に示すように、情報表示システム300は、位置検出システム100が含む第1撮像装置110、第2撮像装置120及び情報処理装置130に加え、複数のHMD140−1〜140−Nを備える。情報処理装置130と、HMD140−1〜140−Nとは、それぞれ、有線又は無線を介して通信可能に構成される。なお、HMD140−1〜140−Nの内部構成は、図3に示したHMD140の内部構成と同様であるため、図6においては記載を省略する。また、以後の説明において、HMD140−1〜140−Nを特に区別しない場合には、単にHMD140と記載する。
FIG. 6 is a functional block diagram showing a schematic configuration of an
制御部131は、図5のステップS201〜S205に示した処理によりHMD140の位置を特定することができる。図6に示すように複数のHMD140−1〜140−Nの位置を特定する場合、制御部131は、N個のHMD140のそれぞれについて、どの光源143の位置がどのHMD140の位置であるかを対応付けて特定している。以後、制御部131が、複数の光源143について、どの光源143がどのHMD140に対応しているかを特定することを、制御部131が複数の光源143を「識別」する、ともいう。
The
制御部131は、例えば、HMD140を使用する施設の営業開始時などに、光源143の識別処理を実行する。制御部131は、例えば、HMD140−1〜140−Nの光源143を順次点灯させる。そして、制御部131は、HMD140−1の光源143を点灯させたときに新たに検出した光源143の位置を、HMD140−1の位置として対応付け、同様にして、HMD140−2〜HMD140−Nについても、どの光源143が、HMD140−2〜HMD140−Nの位置に対応するかの対応付けを行う。
The
制御部131は、一旦識別処理を実行すると、その後のHMD140の位置(光源143の位置)の履歴を記憶部132に記憶させることにより、どの光源143がどのHMD140に対応するかを追跡し続けることができる。
Once the identification processing is executed, the
ところで、特定の状況下では、情報処理装置130が、HMD140の光源143の位置を一時的に特定できない状態となる場合がある。例えば、ある光源143が障害物によって隠れることにより、第1撮像装置110又は第2撮像装置120の撮像画像に映らなくなる場合がある。このように光源143が撮像画像に映らない状態を、以下、本明細書では「マスク状態」という。マスク状態では、制御部131は、方向ベクトルa又は方向ベクトルbを算出することができなくなり、上述の式(5)によって光源143の位置を特定できなくなる。
By the way, under a specific situation, the
また、例えば、2つ以上のHMD140の光源143が第1撮像装置110又は第2撮像装置120の注視方向に対して直列に並ぶことにより、撮像画像において複数の光源143が重なる場合がある。このように、撮像画像において複数の光源143が重なる状態を、以下、本明細書では「カスケード状態」という。カスケード状態では、制御部131は、撮像画像における複数の光源143が重なった状態が解消された場合に、当該複数の光源143の位置を取り違えることにより、複数の光源143の位置を誤って決定する可能性がある。
Further, for example, the
以下、本明細書では、マスク状態とカスケード状態とを合わせて、「ロスト状態」という。 Hereinafter, in this specification, the mask state and the cascade state are collectively referred to as a “lost state”.
光源143がマスク状態となった場合、第1撮像画像及び第2撮像画像の少なくともいずれかにおいて、光源143の個数が減少する。また、光源143がカスケード状態となった場合も、第1撮像画像及び第2撮像画像の少なくともいずれかにおいて複数の光源143が重なるため、撮像画像に映る光源143の個数が減少する。このように、第1撮像画像及び第2撮像画像の少なくともいずれかにおいて、光源143の個数が減少した場合、情報処理装置130の制御部131は、光源143がロスト状態になったと決定する。
When the
制御部131は、HMD140−1〜140−Nのうちのいくつかの光源143についてロスト状態が続くと、その後、光源143がロスト状態から回復しても、いくつかの光源143について、光源143とHMD140との対応付けができなくなる場合がある。すなわち、ロスト状態に起因して、制御部131が光源143の識別をできなくなる場合がある。例えば、2つの光源143がロスト状態となり、十分長い時間が経過してからロスト状態から復帰した場合、ロスト状態となった2つの光源143の位置の履歴をロスト状態となる直前まで追跡していたとしても、制御部131は、復帰した光源143がどのHMD140に対応するか判定できなくなる。
When the
このように、ロスト状態に起因して、制御部131が、少なくとも1つの光源143の識別ができなくなると、制御部131は、HMD140の表示部142に適切な情報を表示させることができなくなる。そのため、制御部131は、この場合、一旦全ての光源143を消灯してから識別処理を再度実行する。以後、識別処理を再度実行することを、「再識別処理」を実行するとも称する。
In this way, when the
制御部131は、ロスト状態に起因して光源143が識別できなくなった場合、様々なタイミングで再識別処理を実行することができる。
When the
例えば、制御部131は、全ての光源143の位置が算出可能になった段階で、再識別処理を実行してもよい。これにより、制御部131は、全てのHMD140−1〜140−Nについて、光源143との対応付けをすることができる。
For example, the
また、制御部131は、全ての光源143の数に対して所定の割合の数の光源143(例えば95%の光源143)の位置が算出可能となった段階で、再識別処理を実行してもよい。これにより、制御部131は、ロスト状態のまま長時間復帰しない光源143がある場合でも、その時点で位置が算出可能な光源143に対して、HMD140−1〜140−Nとの対応付けをすることができる。
Further, the
また、制御部131は、少なくとも1つの光源143がロスト状態から復帰して位置が算出可能になった段階で再識別処理を実行してもよい。また、制御部131は、少なくとも1つの光源143がロスト状態になってから所定の時間が経過した段階で再識別処理を実行してもよい。
Further, the
このように、位置検出システム100は、ロスト状態に起因して少なくとも1つの光源143が識別できなくなった場合、再識別処理を実行する。これにより、複数の光源143がどのHMD140に対応するかを再度対応づけることができ、位置検出システム100の利便性が向上する。
In this way, the
なお、本発明は、上記実施形態にのみ限定されるものではなく、幾多の変形または変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。 It should be noted that the present invention is not limited to the above-described embodiment, and various modifications and changes can be made. For example, the functions and the like included in each component can be rearranged so as not to logically contradict, and a plurality of components can be combined into one or divided.
例えば、上記実施形態においては、位置検出システム100は、2つの撮像装置110及び120を備えるとして説明したが、位置検出システム100は、3つ以上の撮像装置を備えていてもよい。位置検出システム100が3つ以上の撮像装置を備える場合、情報処理装置130は、任意の2つの撮像装置が取得した撮像画像に基づいて、対象物Pの位置を特定できる。この場合、一部の撮像装置による撮像画像において、対象物Pが、例えば障害物に遮られることにより映っていない場合であっても、情報処理装置130は、対象物Pが映った他の撮像画像を用いて対象物Pの位置を特定することができる。
For example, in the above-described embodiment, the
また、上記応用例では、HMD140が2つの光源143a及び143bを備える場合について説明したが、HMD140が備える光源は2つに限られない。HMD140が備える光源は、1つであってもよく、3つ以上であってもよい。
Further, in the above application example, the case where the
また、上記応用例では、HMD140が光源143を備える場合について説明したが、応用例はこれに限られない。光源143は、HMD140以外の他の機器が備えていてもよく、この場合、情報処理装置130は、光源を備える装置の位置を特定できる。
Further, in the above application example, the case where the
また、HMD140は、ユーザの頭部の向きに関する情報を、例えば情報処理装置130等の外部装置へ送信してもよい。かかる構成によって、以下に説明するように情報表示システム200の利便性が更に向上する。
The
例えば、ユーザの頭部の向きに関する情報を受信した情報処理装置130は、HMD140の位置とユーザの頭部の向きとに基づく所定の映像を、例えば外部の表示装置等に表示させることができる。所定の映像は、例えばHMD140に表示される映像と略同一の映像、及び仮想空間におけるユーザの位置及び向きを示すマップ映像等、多様な映像を含んでもよい。ここで、情報表示システム200が複数のHMD140を備える場合、情報処理装置130は、例えば第1のHMD140に表示される映像を第2のHMD140に表示させたり、複数のユーザの位置及び向きを示すマップ映像を複数のHMD140に表示させたりすることができる。
For example, the
また、ユーザの頭部の向きに関する情報を受信した情報処理装置130は、当該向きに関する情報に基づき、ユーザの位置が次に変位する方向を予測することもできる。
Further, the
上記応用例において、情報処理装置130が実行するあらゆる処理をHMD140が実行できるようにしてもよい。このとき、情報表示システム200は、第1撮像装置110、第2撮像装置120及びHMD140からなるものであってよい。このとき、HMD140は、有線又は無線を介して、第1撮像装置110及び第2撮像装置120と通信可能に構成される。
In the above application example, the
100 位置検出システム
110 第1撮像装置
111、121、131、144 制御部
112、122、132、145 記憶部
113、123、133、146 通信部
114 第1撮像部
120 第2撮像装置
124 第2撮像部
130 情報処理装置
140 ヘッドマウントディスプレイ(HMD)
141 装着部
142 表示部
143 光源
147 角速度検出部
200、300 情報表示システム
100
141 mounting
Claims (8)
前記対象物に係る第2撮像画像を取得する第2撮像部と、
前記第1撮像画像及び前記第2撮像画像に基づいて前記対象物の位置を算出し、複数の該対象物を識別する制御部とを備え、
前記制御部は、前記複数の対象物のうちの少なくとも一つがロスト状態となり、少なくとも1つの前記対象物の識別ができなくなると、前記複数の対象物に対する再識別処理を実行し、
前記制御部は、
前記第1撮像画像に基づいて、前記対象物の位置ベクトルを設定し、
前記設定した位置ベクトルを用いて前記第2撮像部から前記対象物への第1方向ベクトルを算出し、
前記第2撮像画像に基づいて、前記第2撮像部から前記対象物への第2方向ベクトルを算出し、
前記第1方向ベクトルと前記第2方向ベクトルの外積の値に基づいて算出される、下式(1)により表される前記対象物の位置ベクトルに基づいて、前記対象物の位置を算出する、位置検出システム。
A second imaging unit that acquires a second captured image of the object;
A control unit that calculates the position of the target object based on the first captured image and the second captured image and identifies a plurality of the target objects;
The control unit performs re-identification processing on the plurality of objects when at least one of the plurality of objects is in a lost state and at least one of the objects cannot be identified ,
The control unit is
A position vector of the object is set based on the first captured image,
Calculating a first direction vector from the second imaging unit to the object using the set position vector,
Calculating a second direction vector from the second imaging unit to the object based on the second captured image,
Calculating the position of the object based on the position vector of the object represented by the following equation (1), which is calculated based on the value of the cross product of the first direction vector and the second direction vector, Position detection system.
前記第1撮像画像及び前記第2撮像画像に基づいて前記対象物の位置を算出し、複数の該対象物を識別するステップと、
前記複数の対象物のうちの少なくとも一つがロスト状態となり、少なくとも1つの前記対象物の識別ができなくなると、前記複数の対象物に対する再識別処理を実行するステップと、を含み、
前記識別するステップにおける前記対象物の位置の算出は、
前記第1撮像画像に基づいて、前記対象物の位置ベクトルを設定することと、
前記設定した位置ベクトルを用いて前記第2撮像部から前記対象物への第1方向ベクトルを算出することと、
前記第2撮像画像に基づいて、前記第2撮像部から前記対象物への第2方向ベクトルを算出することと、
前記第1方向ベクトルと前記第2方向ベクトルの外積の値に基づいて算出される、下式(2)により表される前記対象物の位置ベクトルに基づいて、前記対象物の位置を算出することと、を含む、位置検出方法。
Calculating a position of the object based on the first captured image and the second captured image, and identifying a plurality of the objects;
Wherein at least one of the plurality of objects become lost state, viewed free it becomes impossible to identify the at least one of the object, and performing the re-identification process with respect to the plurality of objects, and
The calculation of the position of the object in the identifying step is
Setting a position vector of the object based on the first captured image;
Calculating a first direction vector from the second imaging unit to the object using the set position vector;
Calculating a second direction vector from the second imaging unit to the object based on the second captured image;
Calculating the position of the target object based on the position vector of the target object represented by the following equation (2), which is calculated based on the value of the cross product of the first direction vector and the second direction vector. And a position detection method including and .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016110445A JP6681278B2 (en) | 2016-06-01 | 2016-06-01 | Position detection system and position detection method |
US15/608,031 US10388027B2 (en) | 2016-06-01 | 2017-05-30 | Detection method, display apparatus, and detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016110445A JP6681278B2 (en) | 2016-06-01 | 2016-06-01 | Position detection system and position detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017215265A JP2017215265A (en) | 2017-12-07 |
JP6681278B2 true JP6681278B2 (en) | 2020-04-15 |
Family
ID=60575585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016110445A Active JP6681278B2 (en) | 2016-06-01 | 2016-06-01 | Position detection system and position detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6681278B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007071782A (en) * | 2005-09-08 | 2007-03-22 | Canon Inc | System for measuring position attitude and method of measuring, same and control program |
JP4663483B2 (en) * | 2005-11-01 | 2011-04-06 | 三洋電機株式会社 | Air conditioner |
JP4961904B2 (en) * | 2006-08-30 | 2012-06-27 | 株式会社島津製作所 | Head motion tracker device |
JP5681052B2 (en) * | 2011-06-30 | 2015-03-04 | 東京エレクトロン株式会社 | Substrate processing apparatus, substrate processing method, and storage medium storing program for executing the substrate processing method |
US20150302648A1 (en) * | 2014-02-18 | 2015-10-22 | Sulon Technologies Inc. | Systems and methods for mapping an environment using structured light |
JP6237326B2 (en) * | 2014-02-25 | 2017-11-29 | 富士通株式会社 | Posture estimation apparatus, posture estimation method, and computer program for posture estimation |
-
2016
- 2016-06-01 JP JP2016110445A patent/JP6681278B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017215265A (en) | 2017-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110458961B (en) | Augmented reality based system | |
KR102702585B1 (en) | Electronic apparatus and Method for controlling the display apparatus thereof | |
TWI659398B (en) | Intrusion detection with directional sensing | |
CN106575437B (en) | Information processing apparatus, information processing method, and program | |
US10634918B2 (en) | Internal edge verification | |
JP2007071782A (en) | System for measuring position attitude and method of measuring, same and control program | |
CN110895676B (en) | dynamic object tracking | |
US20170278269A1 (en) | Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program | |
JP2012084149A (en) | Navigation of mobile divice | |
US10388027B2 (en) | Detection method, display apparatus, and detection system | |
US10509513B2 (en) | Systems and methods for user input device tracking in a spatial operating environment | |
US9772679B1 (en) | Object tracking for device input | |
JP2013124972A (en) | Position estimation device and method and television receiver | |
US9606639B2 (en) | Pointing system and display having improved operable range | |
US11656242B2 (en) | Angular velocity detection device, image display apparatus, angular velocity detection method, and storage medium | |
JP6670682B2 (en) | Position detection method and position detection system | |
JP6681278B2 (en) | Position detection system and position detection method | |
CN116295327A (en) | Positioning method, positioning device, electronic equipment and computer readable storage medium | |
CN115082520A (en) | Positioning tracking method and device, terminal equipment and computer readable storage medium | |
JP6689679B2 (en) | Display device, information display system, and program | |
JP6670681B2 (en) | Position detection method and position detection system | |
JP6885909B2 (en) | Robot control device | |
US11501459B2 (en) | Information processing apparatus, method of information processing, and information processing system | |
JP6689678B2 (en) | Detection method, object to be detected, and system | |
US20230028920A1 (en) | Detection of seizure events |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6681278 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |