JP2016151566A - Motion tracker device - Google Patents

Motion tracker device Download PDF

Info

Publication number
JP2016151566A
JP2016151566A JP2015030883A JP2015030883A JP2016151566A JP 2016151566 A JP2016151566 A JP 2016151566A JP 2015030883 A JP2015030883 A JP 2015030883A JP 2015030883 A JP2015030883 A JP 2015030883A JP 2016151566 A JP2016151566 A JP 2016151566A
Authority
JP
Japan
Prior art keywords
camera
distance
inter
motion tracker
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015030883A
Other languages
Japanese (ja)
Inventor
正和 岡本
Masakazu Okamoto
正和 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2015030883A priority Critical patent/JP2016151566A/en
Publication of JP2016151566A publication Critical patent/JP2016151566A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a motion tracker device capable of performing highly accurate three-dimensional measurement by reducing a measurement error.SOLUTION: A motion tracker device 1 includes: a first camera 11; a second camera 12; a moving mechanism 14 for moving the first camera 11 and the second camera 12 respectively, to adjust a camera-to-camera distance Dc between the first camera 11 and the second camera 12; position calculation means 15 for calculating the three-dimensional position coordinate of an object OB on the basis of the two-dimensional images of the first camera 11 and the second camera 12; and camera position control means 16 for performing control to adjust the camera-to-camera distance Dc, so that a first distance D1 between the first camera 11 and the object OB, a second distance D2 between the second camera 12 and the object OB, and the camera-to-camera distance Dc have a predetermined relation on the basis of the three-dimensional position coordinate of the object OB.SELECTED DRAWING: Figure 3

Description

本発明は、モーショントラッカ装置に関する。   The present invention relates to a motion tracker device.

従来、複数台のカメラを用いて対象物の3次元位置を計測するモーショントラッカ装置が知られている(たとえば、特許文献1参照)。   Conventionally, a motion tracker device that measures a three-dimensional position of an object using a plurality of cameras is known (see, for example, Patent Document 1).

上記特許文献1には、所定間隔を隔てて固定された2台のカメラ(ステレオカメラ)と制御装置とを備えたモーショントラッカ装置が開示されている。このモーショントラッカ装置は、2台のカメラで撮影した対象物の2次元位置情報から、三角測量の原理の応用によって、対象物の3次元位置情報を取得する。   Patent Document 1 discloses a motion tracker device including two cameras (stereo cameras) fixed at a predetermined interval and a control device. This motion tracker device acquires three-dimensional position information of an object from the two-dimensional position information of the object photographed by two cameras by applying the principle of triangulation.

特開2014−95557号公報JP 2014-95557 A

ステレオカメラを用いた3次元位置の計測精度は、原理上、それぞれのカメラと対象物との相対位置関係に影響を受ける。特に奥行き方向については、カメラ間の距離(カメラ間距離)が小さいと誤差が大きくなる。一方、カメラ間距離を大きくしすぎると、対象物がカメラの視野(画角)から外れやすくなったり、カメラと対象物との間の距離が大きくなり過ぎて精度低下の要因になったりする不都合がある。そのため、計測誤差を低減してより高精度な3次元計測を可能とすることが望まれている。   In principle, the measurement accuracy of a three-dimensional position using a stereo camera is affected by the relative positional relationship between each camera and an object. Especially in the depth direction, the error increases when the distance between cameras (inter-camera distance) is small. On the other hand, if the distance between the cameras is too large, the object will be more likely to be out of the field of view (view angle) of the camera, or the distance between the camera and the object will be too large, causing a decrease in accuracy. There is. Therefore, it is desired to reduce the measurement error and enable more accurate three-dimensional measurement.

この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、計測誤差を低減して高精度な3次元計測を行うことが可能なモーショントラッカ装置を提供することである。   The present invention has been made in order to solve the above-described problems, and one object of the present invention is to provide a motion tracker device capable of performing highly accurate three-dimensional measurement by reducing measurement errors. Is to provide.

上記目的を達成するために、この発明の一の局面におけるモーショントラッカ装置は、対象物の2次元画像を取得する第1カメラと、第1カメラとは異なる方向から対象物の2次元画像を取得する第2カメラと、第1カメラおよび第2カメラをそれぞれ移動させて、第1カメラおよび第2カメラの間のカメラ間距離を調整するための移動機構と、第1カメラおよび第2カメラの2次元画像に基づいて、対象物の3次元位置座標を算出する位置算出手段と、対象物の3次元位置座標に基づいて、第1カメラと対象物との間の第1距離と、第2カメラと対象物との間の第2距離と、カメラ間距離とが所定の関係になるようにカメラ間距離を調整する制御を行うカメラ位置制御手段とを備える。   In order to achieve the above object, a motion tracker device according to one aspect of the present invention acquires a two-dimensional image of a target object from a first camera that acquires a two-dimensional image of the target object and a direction different from the first camera. A second camera, a moving mechanism for adjusting the distance between the first camera and the second camera by moving the first camera and the second camera, and two of the first camera and the second camera, respectively. A position calculating means for calculating the three-dimensional position coordinates of the object based on the three-dimensional image; a first distance between the first camera and the object based on the three-dimensional position coordinates of the object; Camera position control means for performing control to adjust the inter-camera distance so that the second distance between the object and the object and the inter-camera distance have a predetermined relationship.

この発明の一の局面によるモーショントラッカ装置では、上記のように、第1カメラおよび第2カメラをそれぞれ移動させて、第1カメラおよび第2カメラの間のカメラ間距離を調整するための移動機構と、対象物の3次元位置座標に基づいて、第1カメラと対象物との間の第1距離と、第2カメラと対象物との間の第2距離と、カメラ間距離とが所定の関係になるようにカメラ間距離を調整する制御を行うカメラ位置制御手段とを設ける。これにより、カメラ間距離を調整することにより、対象物と、第1カメラと、第2カメラとの相対位置関係を、より高精度な計測が可能な所定の関係になるように調整することができる。つまり、対象物と各カメラとの間の距離(第1距離、第2距離)に対して、カメラ間距離が相対的に小さくまたは大きくなり過ぎないように調整して、対象物と、第1カメラおよび第2カメラとの相対位置関係を高精度な計測に適した適切な位置関係に調整することができる。その結果、本発明によれば、計測誤差を低減して高精度な3次元計測を行うことができる。   In the motion tracker device according to one aspect of the present invention, as described above, the moving mechanism for adjusting the inter-camera distance between the first camera and the second camera by moving the first camera and the second camera, respectively. And a first distance between the first camera and the object, a second distance between the second camera and the object, and the inter-camera distance based on the three-dimensional position coordinates of the object. Camera position control means for performing control for adjusting the inter-camera distance so as to be in a relationship is provided. Thus, by adjusting the inter-camera distance, the relative positional relationship between the object, the first camera, and the second camera can be adjusted so as to be a predetermined relationship that allows more accurate measurement. it can. That is, with respect to the distance between the object and each camera (first distance, second distance), the distance between the cameras is adjusted so as not to be relatively small or too large. The relative positional relationship between the camera and the second camera can be adjusted to an appropriate positional relationship suitable for highly accurate measurement. As a result, according to the present invention, measurement errors can be reduced and highly accurate three-dimensional measurement can be performed.

上記一の局面によるモーショントラッカ装置において、好ましくは、カメラ位置制御手段は、カメラ間距離と、第1距離と、第2距離と、を互いに近づける制御を行うように構成されている。このように構成すれば、カメラ間距離が小さくなり過ぎて奥行き方向の誤差が大きくなることを抑制可能で、かつ、カメラと対象物との間の距離(第1距離および第2距離)が大きくなり過ぎて精度低下の要因になることも抑制可能な適切な相対位置関係になるように、カメラ間距離を調整することができる。その結果、対象物とカメラとの相対位置関係に起因した計測誤差を効果的に低減することができる。   In the motion tracker device according to the above aspect, the camera position control unit is preferably configured to perform control to bring the inter-camera distance, the first distance, and the second distance closer to each other. If comprised in this way, it can suppress that the distance between cameras becomes small too much and the error of a depth direction becomes large, and the distance (1st distance and 2nd distance) between a camera and a target object is large. It is possible to adjust the inter-camera distance so as to obtain an appropriate relative positional relationship that can suppress the occurrence of a decrease in accuracy due to becoming too much. As a result, measurement errors due to the relative positional relationship between the object and the camera can be effectively reduced.

この場合、好ましくは、カメラ位置制御手段は、カメラ間距離と、第1距離と、第2距離と、を所定の許容範囲内で互いに一致させる制御を行うように構成されている。このように構成すれば、対象物と第1および第2カメラとが略正三角形の各頂点に配置される相対位置関係で、3次元計測を行うことができる。この結果、過度に装置が大型化することを抑制し、かつ、計測誤差を更に効果的に低減することが可能となる。また、各距離を厳密に一致させる制御を行う場合と異なり、各距離が許容範囲内で互いに異なる場合も許容されるので、第1カメラおよび第2カメラの位置制御(カメラ間距離の制御)が煩雑化するのを抑制することができる。   In this case, preferably, the camera position control means is configured to perform control so that the inter-camera distance, the first distance, and the second distance coincide with each other within a predetermined allowable range. If comprised in this way, a three-dimensional measurement can be performed by the relative positional relationship by which a target object and a 1st and 2nd camera are arrange | positioned at each vertex of a substantially equilateral triangle. As a result, it is possible to suppress an excessive increase in size of the apparatus and to further effectively reduce measurement errors. In addition, unlike the case where control is performed so that the distances are exactly the same, it is also possible that the distances are different from each other within an allowable range, so position control of the first camera and the second camera (inter-camera distance control) It is possible to suppress complication.

上記カメラ位置制御手段がカメラ間距離と第1距離と第2距離とを所定の許容範囲内で互いに一致させる構成において、好ましくは、カメラ位置制御手段は、カメラ間距離、第1距離および第2距離のいずれかが許容範囲外となった場合に、所定の単位距離ごとに第1カメラおよび第2カメラを移動させることにより、カメラ間距離を調整するように構成されている。このように構成すれば、いずれかの距離が許容範囲外となる場合にカメラ間距離を調整して、対象物と第1および第2カメラとを適切な相対位置関係に調整することができる。この際、完全に任意の位置に第1および第2カメラを移動させるのではなく、所定の単位距離ごとに第1および第2カメラを移動させるので、3次元計測のためのキャリブレーションを予め所定の単位距離ごとに行っておくだけで済む。その結果、第1および第2カメラを移動させる構成においても、移動後の各位置での3次元計測を容易に行うことができる。   In the configuration in which the camera position control unit matches the inter-camera distance, the first distance, and the second distance within a predetermined allowable range, preferably, the camera position control unit includes the inter-camera distance, the first distance, and the second distance. When any of the distances falls outside the allowable range, the inter-camera distance is adjusted by moving the first camera and the second camera every predetermined unit distance. If comprised in this way, when either distance becomes outside an allowable range, the distance between cameras can be adjusted, and a target object and the 1st and 2nd camera can be adjusted to appropriate relative positional relationship. At this time, the first and second cameras are not moved completely to arbitrary positions, but are moved every predetermined unit distance, so that calibration for three-dimensional measurement is predetermined. Just go for every unit distance. As a result, even in the configuration in which the first and second cameras are moved, three-dimensional measurement at each position after the movement can be easily performed.

上記一の局面によるモーショントラッカ装置において、好ましくは、位置算出手段は、所定の時間間隔毎に対象物の3次元位置座標を算出し、カメラ位置制御手段は、位置算出手段により算出された3次元位置座標を用いてフィードバック制御を行うことにより、対象物の移動に応じてカメラ間距離の調整を行うように構成されている。このように構成すれば、対象物が移動しても対象物と第1および第2カメラとの相対位置関係を維持することができる。そのため、対象物の移動によって相対位置関係が変化する場合でも、3次元計測精度を維持することができる。   In the motion tracker device according to the above aspect, preferably, the position calculation unit calculates the three-dimensional position coordinates of the object at predetermined time intervals, and the camera position control unit calculates the three-dimensional position calculated by the position calculation unit. By performing feedback control using the position coordinates, the inter-camera distance is adjusted according to the movement of the object. If comprised in this way, even if a target object moves, the relative positional relationship of a target object and a 1st and 2nd camera can be maintained. Therefore, even when the relative positional relationship changes due to the movement of the object, the three-dimensional measurement accuracy can be maintained.

上記一の局面によるモーショントラッカ装置において、好ましくは、移動機構は、直線状のレールと、レール上で第1カメラおよび第2カメラをそれぞれ支持する複数の台座と、複数の台座をそれぞれレールに沿って移動させるための複数のモータとを含む。このように構成すれば、第1カメラおよび第2カメラをレールに沿って移動させる簡素な構成で、カメラ間距離を調整することができる。この結果、カメラ間距離を調整するための装置構成および制御が複雑化するのを抑制することができる。   In the motion tracker device according to the above aspect, preferably, the moving mechanism includes a linear rail, a plurality of pedestals that respectively support the first camera and the second camera on the rail, and a plurality of pedestals along the rails. And a plurality of motors for movement. If comprised in this way, the distance between cameras can be adjusted with the simple structure which moves a 1st camera and a 2nd camera along a rail. As a result, it is possible to prevent the device configuration and control for adjusting the inter-camera distance from becoming complicated.

上記一の局面によるモーショントラッカ装置において、好ましくは、第1カメラ、第2カメラおよび移動機構は、利用者が搭乗する移動体に設けられ、対象物は、移動体に搭乗する利用者の頭部に装着されるヘルメットである。ここで、移動体の利用者がHMD(ヘッドマウントディスプレイ)を備えたヘルメットを装着して、ヘルメットの現在角度に合わせてHMDの映像を変化させる際に、モーショントラッカ技術が用いられている。このような分野では、ヘルメットの現在角度を高精度に計測することが求められている。そこで、本発明では、上記のように構成することによって、計測誤差を低減してヘルメットの現在角度を高精度に計測することが可能なモーショントラッカ装置(ヘッドモーショントラッカ)を提供することができる。   In the motion tracker device according to the above aspect, preferably, the first camera, the second camera, and the moving mechanism are provided in a moving body on which the user is boarded, and the object is a head of the user on the moving body. It is a helmet to be attached to. Here, a motion tracker technique is used when a user of a mobile body wears a helmet equipped with an HMD (head mounted display) and changes the image of the HMD in accordance with the current angle of the helmet. In such a field, it is required to measure the current angle of the helmet with high accuracy. Therefore, according to the present invention, it is possible to provide a motion tracker device (head motion tracker) capable of measuring the current angle of the helmet with high accuracy by reducing the measurement error by configuring as described above.

本発明によれば、上記のように、計測誤差を低減して高精度な3次元計測を行うことができる。   According to the present invention, as described above, highly accurate three-dimensional measurement can be performed while reducing measurement errors.

ヘッドマウントディスプレイシステムの全体構成を示した模式図である。It is the schematic diagram which showed the whole structure of the head mounted display system. 本発明の一実施形態によるモーショントラッカ装置の構造を説明するための模式的な背面図である。It is a typical back view for demonstrating the structure of the motion tracker apparatus by one Embodiment of this invention. 本発明の一実施形態によるモーショントラッカ装置を説明するための模式的な平面図である。It is a typical top view for explaining a motion tracker device by one embodiment of the present invention. 図3において対象物が移動した場合のモーショントラッカ装置の動作を説明するための模式図である。It is a schematic diagram for demonstrating operation | movement of the motion tracker apparatus when a target object moves in FIG. 本発明の一実施形態によるモーショントラッカ装置のカメラ間距離の調整処理を説明するためのフロー図である。It is a flowchart for demonstrating the adjustment process of the distance between cameras of the motion tracker apparatus by one Embodiment of this invention. 本実施形態による対象物、第1カメラおよび第2カメラの相対位置関係(A)と、カメラ間距離が小さい場合の相対位置関係(B)を示した模式図である。It is the schematic which showed the relative positional relationship (A) in case the distance between cameras is small, and the relative positional relationship (A) of the target object, 1st camera, and 2nd camera by this embodiment. カメラ間距離を変更して対象物の3次元位置計測を行った実験結果を説明するための図である。It is a figure for demonstrating the experimental result which changed the distance between cameras and measured the three-dimensional position of the target object. 対象物、第1カメラおよび第2カメラの所定の相対位置関係の変形例を示した模式図である。It is the schematic diagram which showed the modification of the predetermined relative positional relationship of a target object, a 1st camera, and a 2nd camera.

以下、本発明を具体化した実施形態を図面に基づいて説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below with reference to the drawings.

図1〜図4を参照して、本発明の一実施形態によるモーショントラッカ装置1について説明する。本実施形態では、モーショントラッカ装置1が、自動車、航空機、船舶など、人を搭乗させて移動する移動体に搭載されるヘッドマウントディスプレイシステム(以下、「HMDシステム」という)に適用される例について説明する。より具体的には、図1に示すように、特に航空機(飛行機やヘリコプタ)などの上空(空中)を移動する移動体4に搭載されるHMDシステム100において、利用者であるパイロットが装着するヘルメット23の向き(パイロットの頭部の向き)を計測するためのモーショントラッカ装置に本発明を適用した例について説明する。   With reference to FIGS. 1-4, the motion tracker apparatus 1 by one Embodiment of this invention is demonstrated. In the present embodiment, an example in which the motion tracker device 1 is applied to a head mounted display system (hereinafter referred to as “HMD system”) mounted on a moving body that carries a person such as an automobile, an aircraft, and a ship. explain. More specifically, as shown in FIG. 1, in a HMD system 100 mounted on a moving body 4 that moves in the sky (in the air) such as an aircraft (airplane or helicopter), a helmet worn by a pilot who is a user. An example in which the present invention is applied to a motion tracker device for measuring the direction of 23 (the direction of the pilot's head) will be described.

(ヘッドマウントディスプレイシステムの全体構成)
図1に示すように、HMDシステム100は、モーショントラッカ装置1と、撮影装置21および表示画面22を備えたヘッドマウントディスプレイ(以下、「HMD」という)2と、撮影装置21により撮影された画像を表示画面22に表示させるための画像処理装置3とを備える。
(Overall configuration of head-mounted display system)
As shown in FIG. 1, the HMD system 100 includes a motion tracker device 1, a head mounted display (hereinafter referred to as “HMD”) 2 having a photographing device 21 and a display screen 22, and an image photographed by the photographing device 21. Is displayed on the display screen 22.

HMDシステム100は、撮影装置21により撮影された動画像を、HMD2の表示画面22に表示させることにより、表示画面22を透過して視認される光景と、表示画面22に表示される動画像とを重ねて利用者に視認させることが可能である。これにより、HMDシステム100は、夕方や夜間など肉眼では外界を把握し難い低照度の環境下において、肉眼よりも感度の高い撮影装置21の動画像により視野を補完したり、表示画面22を透過して視認される物体に重ねて各種情報表示を行ったりすることができる。   The HMD system 100 displays a moving image captured by the image capturing device 21 on the display screen 22 of the HMD 2, thereby allowing a scene to be viewed through the display screen 22 and a moving image displayed on the display screen 22. It is possible to make a user visually recognize by overlapping. As a result, the HMD system 100 supplements the field of view with a moving image of the photographing device 21 having higher sensitivity than the naked eye or transmits the display screen 22 in a low-light environment where it is difficult to grasp the outside world with the naked eye, such as in the evening or at night. Various information can be displayed on the object that is visually recognized.

HMD2は、撮影装置21および表示画面22を備える頭部装着型の表示装置である。図1では、ヘルメット型形状のHMD2の例を示している。HMD2は、バイザー状の表示画面22と、撮影装置21とが取り付けられたヘルメット23を備えている。また、HMD2は、表示画面22に画像を投影するための表示素子24および光学系25を備えている。   The HMD 2 is a head-mounted display device that includes a photographing device 21 and a display screen 22. FIG. 1 shows an example of a helmet-shaped HMD2. The HMD 2 includes a helmet 23 to which a visor-like display screen 22 and a photographing device 21 are attached. The HMD 2 includes a display element 24 and an optical system 25 for projecting an image on the display screen 22.

表示画面22は、透光性を有し、利用者が表示画面22を透過して視線方向前方の光景を視認することができる。撮影装置21は、図示しないレンズと撮像素子とを含み、利用者の視線方向前方に撮影光軸方向が向くようにヘルメット23に固定されている。表示素子24は、左目用画像と右目用画像とを光学系25によりそれぞれコリメートさせて表示画面22に投影するように構成されている。表示画面22で反射された左目用画像と右目用画像とが、外部から表示画面22を透過した外界光とともに、利用者の左目および右目にそれぞれ視認される。なお、図1に示すヘルメット23には、モーショントラッカ装置1による検出用のマーカ23aが取り付けられている。   The display screen 22 has translucency so that the user can see the scene in front of the line of sight through the display screen 22. The imaging device 21 includes a lens and an imaging device (not shown), and is fixed to the helmet 23 so that the imaging optical axis direction is directed forward in the direction of the user's line of sight. The display element 24 is configured to collimate the left-eye image and the right-eye image by the optical system 25 and project the image on the display screen 22. The left-eye image and the right-eye image reflected by the display screen 22 are visually recognized by the user's left eye and right eye, together with external light transmitted through the display screen 22 from the outside. In addition, the marker 23a for the detection by the motion tracker apparatus 1 is attached to the helmet 23 shown in FIG.

画像処理装置3は、HMD2の映像信号の処理装置として、ヘルメット23内に組み込まれている。画像処理装置3は、撮影装置21により撮影された動画像を受け取り、画像処理を行って表示素子24に出力することにより、表示画面22に動画像を表示させる機能を有する。画像処理装置3は、モーショントラッカ装置1により計測された利用者の頭部5の動きに追従させて、表示画面22への画像表示を行うように構成されている。   The image processing device 3 is incorporated in the helmet 23 as a video signal processing device of the HMD 2. The image processing device 3 has a function of displaying a moving image on the display screen 22 by receiving a moving image captured by the imaging device 21, performing image processing, and outputting the processed image to the display element 24. The image processing device 3 is configured to display an image on the display screen 22 in accordance with the movement of the user's head 5 measured by the motion tracker device 1.

本実施形態によるモーショントラッカ装置1は、移動体4に設けられ、利用者の頭部5に装着されたヘルメット23の向きを検出することにより、ヘルメット23に固定された撮影装置21の姿勢(向き)を検出するように構成されている。   The motion tracker device 1 according to the present embodiment is provided on the moving body 4 and detects the orientation of the helmet 23 attached to the user's head 5 to thereby detect the orientation (orientation) of the imaging device 21 fixed to the helmet 23. ) Is detected.

モーショントラッカ装置1は、第1カメラ11と、第2カメラ12と、制御部13とを備える。モーショントラッカ装置1は、移動体4に搭乗する利用者(パイロット)の頭部5に装着されるヘルメット23(マーカ23a)を対象物OBとして、ヘルメット23(マーカ23a)の3次元位置計測を行うように構成されている。   The motion tracker device 1 includes a first camera 11, a second camera 12, and a control unit 13. The motion tracker device 1 measures the three-dimensional position of the helmet 23 (marker 23a) using the helmet 23 (marker 23a) mounted on the head 5 of the user (pilot) who is riding on the moving body 4 as an object OB. It is configured as follows.

モーショントラッカ装置1は、ヘルメット23に設けられたマーカ23aを第1カメラ11および第2カメラ12によって撮影する。マーカ23aは、たとえばLEDなどの発光素子であり、ヘルメット23の3次元の姿勢を決定できるように、3つ以上設けられている。それぞれのマーカ23aは、第1カメラ11および第2カメラ12によって撮影可能なヘルメット23の表面上の位置に固定的に取り付けられている。   The motion tracker device 1 photographs the marker 23 a provided on the helmet 23 with the first camera 11 and the second camera 12. The markers 23 a are light emitting elements such as LEDs, for example, and three or more markers 23 a are provided so that the three-dimensional posture of the helmet 23 can be determined. Each marker 23 a is fixedly attached to a position on the surface of the helmet 23 that can be photographed by the first camera 11 and the second camera 12.

モーショントラッカ装置1は、第1カメラ11および第2カメラ12により撮像された2次元画像から、各マーカ23aの空間位置座標(3次元位置座標)を算出する。各マーカ23aはヘルメット23に所定の相対位置座標で固定されているため、モーショントラッカ装置1は、3点以上のマーカ23aの空間位置座標とマーカ間の相対位置座標とに基づいて、ヘルメット23の現在の角度(向き)を算出する。   The motion tracker device 1 calculates the spatial position coordinates (three-dimensional position coordinates) of each marker 23 a from the two-dimensional images captured by the first camera 11 and the second camera 12. Since each marker 23a is fixed to the helmet 23 at a predetermined relative position coordinate, the motion tracker device 1 is based on the spatial position coordinates of the three or more markers 23a and the relative position coordinates between the markers 23. Calculate the current angle (orientation).

モーショントラッカ装置1は、検出したヘルメット23の現在の角度(姿勢)の検出信号を、画像処理装置3に送るように構成されている。この結果、HMDシステム100は、モーショントラッカ装置1によって計測した利用者(パイロット)の頭部5の向き(視線方向)に合わせて、HMD2の表示画面22に各種の画像を表示させる。   The motion tracker device 1 is configured to send a detection signal of the detected current angle (posture) of the helmet 23 to the image processing device 3. As a result, the HMD system 100 displays various images on the display screen 22 of the HMD 2 in accordance with the direction (line-of-sight direction) of the head 5 of the user (pilot) measured by the motion tracker device 1.

(モーショントラッカ装置の構成)
次に、モーショントラッカ装置1の構成について詳細に説明する。
(Configuration of motion tracker device)
Next, the configuration of the motion tracker device 1 will be described in detail.

第1カメラ11および第2カメラ12は、それぞれ、CCDカメラなどからなり、対象物OB(ヘルメット23)の2次元画像を取得するように構成されている。第2カメラ12は、第1カメラ11とは異なる方向から対象物OBを撮影するように構成されている。   Each of the first camera 11 and the second camera 12 includes a CCD camera or the like, and is configured to acquire a two-dimensional image of the object OB (helmet 23). The second camera 12 is configured to photograph the object OB from a direction different from that of the first camera 11.

モーショントラッカ装置1は、第1カメラ11および第2カメラ12の移動機構14を備えている。第1カメラ11、第2カメラ12および移動機構14は、利用者(パイロット)が搭乗する移動体4に設けられている。移動機構14は、第1カメラ11および第2カメラ12をそれぞれ移動させて、第1カメラ11および第2カメラ12の間のカメラ間距離Dcを調整することが可能である。カメラ間距離Dcは、第1カメラ11と第2カメラ12との間の間隔である。   The motion tracker device 1 includes a moving mechanism 14 for the first camera 11 and the second camera 12. The 1st camera 11, the 2nd camera 12, and the moving mechanism 14 are provided in the mobile body 4 on which a user (pilot) gets on. The moving mechanism 14 can adjust the inter-camera distance Dc between the first camera 11 and the second camera 12 by moving the first camera 11 and the second camera 12, respectively. The inter-camera distance Dc is an interval between the first camera 11 and the second camera 12.

本実施形態では、図2に示すように、移動機構14は、第1カメラ11および第2カメラ12を共通の移動軸(レール14a)に沿って直線移動させる1軸の移動機構である。具体的には、移動機構14は、直線状のレール14aと、レール14a上で第1カメラ11および第2カメラ12をそれぞれ支持する複数(2つ)の台座14bと、複数(2つ)の台座14bをそれぞれレール14aに沿って移動させるための複数(2つ)のモータ14cとを含む。   In the present embodiment, as shown in FIG. 2, the moving mechanism 14 is a uniaxial moving mechanism that linearly moves the first camera 11 and the second camera 12 along a common moving axis (rail 14a). Specifically, the moving mechanism 14 includes a linear rail 14a, a plurality (two) of pedestals 14b that respectively support the first camera 11 and the second camera 12 on the rail 14a, and a plurality (two). A plurality of (two) motors 14c for moving the base 14b along the rails 14a are included.

レール14aは、支持部材14d(図1参照)を介して移動体4に取り付けられている。レール14aは、台座14bをレール14aに沿って直線移動可能に支持している。以下では、レール14aの延びる方向をX方向(図3参照)、X方向と直交する奥行き方向をY方向(図3参照)という。   The rail 14a is attached to the moving body 4 via a support member 14d (see FIG. 1). The rail 14a supports the pedestal 14b so as to be linearly movable along the rail 14a. Hereinafter, the direction in which the rail 14a extends is referred to as the X direction (see FIG. 3), and the depth direction orthogonal to the X direction is referred to as the Y direction (see FIG. 3).

台座14bは、レール14aに沿って移動可能なスライダである。各台座14bは、第1カメラ11と第2カメラ12とをそれぞれ支持している。第1カメラ11および第2カメラ12はそれぞれの台座14bに対して固定されており、第1カメラ11(第2カメラ12)は、いわゆる首振り(パンまたはチルト)機能を有していない。本実施形態では、第1カメラ11および第2カメラ12は、カメラ光軸がそれぞれレール14aに対してα1およびα2(図1参照)の角度をなすように台座14bに取り付けられている。本実施形態では、α1およびα2の大きさはそれぞれ約60°であり、第1カメラ11および第2カメラ12のカメラ光軸は、互いに近付く方向に向けて傾斜している。   The base 14b is a slider that can move along the rail 14a. Each pedestal 14b supports the first camera 11 and the second camera 12, respectively. The first camera 11 and the second camera 12 are fixed to the respective bases 14b, and the first camera 11 (second camera 12) does not have a so-called swing (pan or tilt) function. In the present embodiment, the first camera 11 and the second camera 12 are attached to the pedestal 14b so that the camera optical axes are at angles α1 and α2 (see FIG. 1) with respect to the rail 14a, respectively. In the present embodiment, the magnitudes of α1 and α2 are each about 60 °, and the camera optical axes of the first camera 11 and the second camera 12 are inclined toward each other.

モータ14cは、台座14bに内蔵または外部取り付けされており、駆動量に応じて台座14bを移動させるように構成されている。それぞれのモータ14cは、制御部13によって独立して駆動制御されるように構成されている。そのため、第1カメラ11および第2カメラ12は、それぞれ独立して移動可能である。モータ14cは、たとえばステッピングモータまたはサーボモータなどからなり、モータ14cの駆動量制御によって第1カメラ11および第2カメラ12の位置制御が可能である。すなわち、第1カメラ11および第2カメラ12のカメラ間距離Dcは、それぞれのモータ14cの駆動制御によって調整される。   The motor 14c is built in or externally attached to the pedestal 14b, and is configured to move the pedestal 14b in accordance with the drive amount. Each motor 14c is configured to be independently driven and controlled by the control unit 13. Therefore, the 1st camera 11 and the 2nd camera 12 can move independently, respectively. The motor 14c is formed of, for example, a stepping motor or a servo motor, and the position of the first camera 11 and the second camera 12 can be controlled by controlling the driving amount of the motor 14c. That is, the inter-camera distance Dc between the first camera 11 and the second camera 12 is adjusted by driving control of the respective motors 14c.

図1に示すように、制御部13は、CPU13aおよびメモリ13bを含むコンピュータである。   As shown in FIG. 1, the control unit 13 is a computer including a CPU 13a and a memory 13b.

本実施形態では、CPU13aは、メモリ13bに記憶されたプログラムを実行することにより、第1カメラ11および第2カメラ12の2次元画像に基づいて、対象物OBの3次元位置座標を算出する位置算出手段15として機能するように構成されている。   In the present embodiment, the CPU 13a executes a program stored in the memory 13b to calculate the three-dimensional position coordinates of the object OB based on the two-dimensional images of the first camera 11 and the second camera 12. It is configured to function as the calculation means 15.

位置算出手段15は、第1カメラ11および第2カメラ12により撮像された2次元画像から各マーカ23aを抽出し、それぞれ抽出した各マーカ23aの2次元座標(画像におけるマーカ23aの位置座標)を取得する。そして、位置算出手段15は、それぞれの2次元画像におけるマーカ23aの2次元座標を用いて、三角測量の原理に基づくDLT法(Direct Liner Transformation Method)により各マーカ23aの3次元位置座標を算出する。位置算出手段15は、所定の時間間隔(計測タイミング)毎に対象物OBの3次元位置座標を算出するように構成されている。   The position calculation means 15 extracts each marker 23a from the two-dimensional image imaged by the first camera 11 and the second camera 12, and uses the two-dimensional coordinates (position coordinates of the marker 23a in the image) of each extracted marker 23a. get. And the position calculation means 15 calculates the three-dimensional position coordinate of each marker 23a by the DLT method (Direct Liner Transformation Method) based on the principle of triangulation using the two-dimensional coordinate of the marker 23a in each two-dimensional image. . The position calculating means 15 is configured to calculate the three-dimensional position coordinates of the object OB at every predetermined time interval (measurement timing).

また、本実施形態では、CPU13aは、メモリ13bに記憶されたプログラムを実行することにより、対象物OBの3次元位置座標に基づいて、カメラ間距離Dcを調整する制御を行うカメラ位置制御手段16として機能するように構成されている。   In the present embodiment, the CPU 13a executes a program stored in the memory 13b to perform control for adjusting the inter-camera distance Dc based on the three-dimensional position coordinates of the object OB. Is configured to function as

図3に示すように、カメラ位置制御手段16は、対象物OBの3次元位置座標に基づいて移動機構14を制御して、第1カメラ11と対象物OBとの間の第1距離D1と、第2カメラ12と対象物OBとの間の第2距離D2と、カメラ間距離Dcとが所定の関係になるようにカメラ間距離Dcを調整する。言い換えると、カメラ位置制御手段16は、移動機構14を制御して第1カメラ11および第2カメラ12を移動させることにより、対象物OBと、第1カメラ11と、第2カメラ12との相対位置関係を調整する。カメラ位置制御手段16は、位置算出手段15により算出された3次元位置座標を用いてフィードバック制御を行うことにより、対象物OBの移動に応じてカメラ間距離Dcの調整を行う(カメラと対象物との相対位置関係を維持させる)ように構成されている。   As shown in FIG. 3, the camera position control means 16 controls the movement mechanism 14 based on the three-dimensional position coordinates of the object OB, and the first distance D1 between the first camera 11 and the object OB. The inter-camera distance Dc is adjusted so that the second distance D2 between the second camera 12 and the object OB and the inter-camera distance Dc have a predetermined relationship. In other words, the camera position control means 16 controls the moving mechanism 14 to move the first camera 11 and the second camera 12, so that the object OB, the first camera 11, and the second camera 12 are relative to each other. Adjust the positional relationship. The camera position control means 16 adjusts the inter-camera distance Dc according to the movement of the object OB by performing feedback control using the three-dimensional position coordinates calculated by the position calculation means 15 (camera and object). To maintain a relative positional relationship with the

本実施形態では、カメラ位置制御手段16は、第1距離D1と、第2距離D2と、カメラ間距離Dcとの所定の関係にする制御として、カメラ間距離Dcと、第1距離D1と、第2距離D2とを互いに近づける制御を行う。より具体的には、カメラ位置制御手段16は、カメラ間距離Dcと、第1距離D1と、第2距離D2とを、所定の許容範囲RA内で互いに一致させる制御を行うように構成されている。最も典型的なケースでは、カメラ位置制御手段16は、カメラ間距離Dcと、第1距離D1と、第2距離D2と、を互いに一致(Dc=D1=D2)させる。この場合、カメラ位置制御手段16は、対象物OBと、第1カメラ11と、第2カメラ12とが図3のように正三角形を成す(対象物OBと、第1カメラ11と、第2カメラ12とが正三角形の各頂点に位置する)ように、第1カメラ11と、第2カメラ12とを移動させる。カメラ間距離Dcと、第1距離D1と、第2距離D2とが互いに一致していなくても、各距離間の相違(残差)が許容範囲RA内であれば、カメラ間距離Dcは維持される。   In the present embodiment, the camera position control means 16 controls the inter-camera distance Dc, the first distance D1, and the control to obtain a predetermined relationship among the first distance D1, the second distance D2, and the inter-camera distance Dc. Control is performed to bring the second distance D2 closer to each other. More specifically, the camera position control means 16 is configured to perform control to make the inter-camera distance Dc, the first distance D1, and the second distance D2 coincide with each other within a predetermined allowable range RA. Yes. In the most typical case, the camera position control means 16 makes the inter-camera distance Dc, the first distance D1, and the second distance D2 coincide with each other (Dc = D1 = D2). In this case, in the camera position control means 16, the object OB, the first camera 11, and the second camera 12 form an equilateral triangle as shown in FIG. 3 (the object OB, the first camera 11, and the second camera 12). The first camera 11 and the second camera 12 are moved so that the camera 12 is positioned at each vertex of the equilateral triangle. Even if the inter-camera distance Dc, the first distance D1, and the second distance D2 do not coincide with each other, the inter-camera distance Dc is maintained as long as the difference (residual) between the distances is within the allowable range RA. Is done.

カメラ位置制御手段16は、カメラ間距離Dc、第1距離D1および第2距離D2のいずれかが許容範囲RA外となった場合に、カメラ間距離Dcを調整するように構成されている。たとえば、図3において対象物OBがY2方向に移動して第1カメラ11(第2カメラ12)に近付いた場合、カメラ位置制御手段16は、第1カメラ11および第2カメラ12をX方向に互いに近付くように移動させ、カメラ間距離Dcを小さくする。逆に、対象物OBがY1方向に遠ざかった場合、カメラ位置制御手段16は、第1カメラ11および第2カメラ12をX方向に互いに遠ざかるように移動させ、カメラ間距離Dcを大きくする。   The camera position control means 16 is configured to adjust the inter-camera distance Dc when any of the inter-camera distance Dc, the first distance D1, and the second distance D2 is outside the allowable range RA. For example, in FIG. 3, when the object OB moves in the Y2 direction and approaches the first camera 11 (second camera 12), the camera position control means 16 moves the first camera 11 and the second camera 12 in the X direction. It moves so that it may mutually approach, and distance Dc between cameras is made small. Conversely, when the object OB moves away in the Y1 direction, the camera position control means 16 moves the first camera 11 and the second camera 12 away from each other in the X direction to increase the inter-camera distance Dc.

本実施形態では、カメラ位置制御手段16は、所定の単位距離D3ごとに第1カメラ11および第2カメラ12を移動させることにより、カメラ間距離Dcを調整する。そのため、カメラ間距離Dcの調整を行うか否かの許容範囲RAの大きさは、単位距離D3の大きさに応じて決定されている。すなわち、許容範囲RAは、単位距離D3と同じかまたは単位距離D3よりも大きい。   In the present embodiment, the camera position control means 16 adjusts the inter-camera distance Dc by moving the first camera 11 and the second camera 12 every predetermined unit distance D3. Therefore, the size of the allowable range RA for determining whether or not to adjust the inter-camera distance Dc is determined according to the size of the unit distance D3. That is, the allowable range RA is the same as or larger than the unit distance D3.

また、カメラ位置制御手段16は、第1カメラ11を移動させることによる第1距離D1の調整、および、第2カメラ12を移動させることによる第2距離D2の調整を行うように構成されている。図3において、対象物OBがX方向にのみ移動する場合、カメラ位置制御手段16は、第1距離D1および第2距離D2の大きさを互いに近づけるように第1カメラ11および第2カメラ12をX方向に移動させる。つまり、第1カメラ11および第2カメラ12のX方向位置の中間位置を、対象物OBのX方向位置に近づけるように第1カメラ11および第2カメラ12が移動される。   The camera position control means 16 is configured to adjust the first distance D1 by moving the first camera 11 and adjust the second distance D2 by moving the second camera 12. . In FIG. 3, when the object OB moves only in the X direction, the camera position control means 16 moves the first camera 11 and the second camera 12 so that the magnitudes of the first distance D1 and the second distance D2 are close to each other. Move in the X direction. That is, the first camera 11 and the second camera 12 are moved so that the intermediate position between the X direction positions of the first camera 11 and the second camera 12 approaches the X direction position of the object OB.

実際の対象物OBの移動はランダムであるので、カメラ位置制御手段16は、図4に示すように、対象物OBのY方向移動に応じてカメラ間距離Dcを増減させつつ、対象物OBのX方向移動に応じて、第1カメラ11および第2カメラ12の中間位置をX方向に移動させる。これにより、カメラ位置制御手段16は、対象物OB、第1カメラ11および第2カメラ12が略正三角形をなす位置関係を維持させる。   Since the actual movement of the object OB is random, as shown in FIG. 4, the camera position control means 16 increases or decreases the inter-camera distance Dc in accordance with the movement of the object OB in the Y direction. The intermediate position of the first camera 11 and the second camera 12 is moved in the X direction according to the movement in the X direction. Thereby, the camera position control means 16 maintains the positional relationship in which the object OB, the first camera 11 and the second camera 12 form a substantially equilateral triangle.

なお、DLT法による対象物OBの3次元位置計測には、各カメラの2次元画像の2次元座標系と3次元の空間座標系との座標変換を行うためのカメラ定数が必要であり、カメラ定数には、空間座標系における第1カメラ11および第2カメラ12の位置(カメラ間距離Dc)に関わるパラメータが含まれる。そのため、第1カメラ11および第2カメラ12が移動可能な各位置(単位距離D3毎の各位置)において事前にキャリブレーションが行われることによって、それぞれ位置でのカメラ定数がメモリ13bに予め記憶されている。3次元位置計測の際に、第1カメラ11および第2カメラ12の各位置に応じたカメラ定数が位置算出手段15によってメモリ13bから読み出されることにより、対応するカメラ定数を用いた3次元位置計測が行われる。   Note that the 3D position measurement of the object OB by the DLT method requires camera constants for coordinate conversion between the 2D coordinate system of the 2D image of each camera and the 3D spatial coordinate system. The constant includes parameters related to the positions of the first camera 11 and the second camera 12 (inter-camera distance Dc) in the spatial coordinate system. Therefore, calibration is performed in advance at each position where the first camera 11 and the second camera 12 can move (each position for each unit distance D3), so that camera constants at the respective positions are stored in the memory 13b in advance. ing. At the time of three-dimensional position measurement, camera constants corresponding to the positions of the first camera 11 and the second camera 12 are read from the memory 13b by the position calculation means 15, so that the three-dimensional position measurement using the corresponding camera constants is performed. Is done.

(カメラ間距離の調整処理)
次に、図2、図3および図5を参照して、モーショントラッカ装置1のカメラ間距離Dcの調整処理について説明する。カメラ間距離Dcの調整処理は、制御部13のCPU13a(カメラ位置制御手段16、位置算出手段15)により行われる。以下では、カメラ位置制御手段16および位置算出手段15を区別せずに、CPU13aが行う処理として説明する。
(Camera distance adjustment process)
Next, with reference to FIG. 2, FIG. 3, and FIG. 5, the adjustment process of the inter-camera distance Dc of the motion tracker device 1 will be described. The adjustment process of the inter-camera distance Dc is performed by the CPU 13a (camera position control means 16, position calculation means 15) of the control unit 13. Below, it demonstrates as a process which CPU13a performs, without distinguishing the camera position control means 16 and the position calculation means 15. FIG.

図5のステップS1において、CPU13aは、第1カメラ11および第2カメラ12のそれぞれから、対象物OBを撮影した2次元画像を取得する。   In step S <b> 1 of FIG. 5, the CPU 13 a acquires a two-dimensional image obtained by photographing the object OB from each of the first camera 11 and the second camera 12.

ステップS2において、CPU13aは、第1カメラ11および第2カメラ12の現在位置に応じたカメラ定数をメモリ13bから読み出す。なお、第1カメラ11および第2カメラ12の現在位置は、CPU13aによる移動機構14のそれぞれのモータ14c(図2参照)の位置制御によって常時把握されている。   In step S2, the CPU 13a reads camera constants corresponding to the current positions of the first camera 11 and the second camera 12 from the memory 13b. The current positions of the first camera 11 and the second camera 12 are always grasped by the position control of each motor 14c (see FIG. 2) of the moving mechanism 14 by the CPU 13a.

ステップS3において、CPU13aは、ステップS1で得られたそれぞれの2次元画像と、カメラ定数とを用いて、2次元画像における対象物OBの2次元座標から3次元の空間座標系における対象物OBの位置座標に座標変換を行う。これにより、対象物OBの3次元位置が取得される。   In step S3, the CPU 13a uses the two-dimensional images obtained in step S1 and the camera constants to change the object OB in the three-dimensional spatial coordinate system from the two-dimensional coordinates of the object OB in the two-dimensional image. Perform coordinate conversion to position coordinates. Thereby, the three-dimensional position of the object OB is acquired.

ステップS4において、CPU13aは、第1カメラ11および第2カメラ12のそれぞれの現在位置と、ステップS3で取得した対象物OBの3次元位置とに基づいて、第1距離D1および第2距離D2を算出する。また、CPU13aは、第1カメラ11および第2カメラ12のそれぞれの現在位置から、カメラ間距離Dc(図3参照)を取得する。   In step S4, the CPU 13a determines the first distance D1 and the second distance D2 based on the current positions of the first camera 11 and the second camera 12 and the three-dimensional position of the object OB acquired in step S3. calculate. Further, the CPU 13a acquires the inter-camera distance Dc (see FIG. 3) from the current positions of the first camera 11 and the second camera 12.

ステップS5において、CPU13aは、カメラ間距離Dc、第1距離D1および第2距離D2が許容範囲RA(図3参照)内で一致しているか否かを判断する。すなわち、CPU13aは、カメラ間距離Dcと、第1距離D1と、第2距離D2とのそれぞれの差分(残差)が許容範囲RA(閾値)以下か否かを判断する。全ての差分が許容範囲RA以下となる場合、CPU13aはステップS1に処理を戻す。この結果、カメラ間距離Dc、第1距離D1および第2距離D2が許容範囲RA内で一致する相対位置関係が維持される。   In step S5, the CPU 13a determines whether or not the inter-camera distance Dc, the first distance D1, and the second distance D2 are within the allowable range RA (see FIG. 3). That is, the CPU 13a determines whether or not the respective differences (residuals) between the inter-camera distance Dc, the first distance D1, and the second distance D2 are less than or equal to the allowable range RA (threshold). When all the differences are less than or equal to the allowable range RA, the CPU 13a returns the process to step S1. As a result, the relative positional relationship in which the inter-camera distance Dc, the first distance D1, and the second distance D2 match within the allowable range RA is maintained.

ステップS5において、いずれかの差分が許容範囲RA(閾値)よりも大きい場合、CPU13aはステップS6に処理を進める。ステップS6において、CPU13aは、カメラ間距離Dcと第1距離D1と第2距離D2とを許容範囲RA内で一致させるように第1カメラ11および第2カメラ12を移動させ、カメラ間距離Dcを調整する。カメラ間距離Dcの調整後、CPU13aはステップS1に処理を戻す。   If any difference is larger than the allowable range RA (threshold) in step S5, the CPU 13a advances the process to step S6. In step S6, the CPU 13a moves the first camera 11 and the second camera 12 so that the inter-camera distance Dc, the first distance D1, and the second distance D2 coincide within the allowable range RA, and sets the inter-camera distance Dc. adjust. After adjusting the inter-camera distance Dc, the CPU 13a returns the process to step S1.

以上の処理が所定の時間間隔(計測タイミング)毎に繰り返されることにより、CPU13aは、カメラ間距離Dcと第1距離D1と第2距離D2とが許容範囲RA内で一致しているか否かを監視する。そして、各距離の差分が許容範囲RAに対応する閾値よりも大きくなった場合に、CPU13aがカメラ間距離Dcを調整するフィードバック制御を行うことにより、カメラ間距離Dcと第1距離D1と第2距離D2とが所定の関係(本実施形態ではDc≒D1≒D2となる関係)に維持される。   By repeating the above processing every predetermined time interval (measurement timing), the CPU 13a determines whether or not the inter-camera distance Dc, the first distance D1, and the second distance D2 are within the allowable range RA. Monitor. And when the difference of each distance becomes larger than the threshold value corresponding to the allowable range RA, the CPU 13a performs feedback control for adjusting the inter-camera distance Dc, whereby the inter-camera distance Dc, the first distance D1, and the second The distance D2 is maintained in a predetermined relationship (in this embodiment, a relationship in which Dc≈D1≈D2).

(本実施形態の作用)
図6を参照して、本実施形態の作用を説明する。図6に示すように、対象物OBが2次元画像の対応画素Pxに映る場合、その対応画素Pxを通る光の範囲が、計測の誤差範囲となる。そのため、図6(A)に示すように、カメラ間距離Dcと、第1距離D1と、第2距離D2とが近い場合(一致する場合)、奥行き方向の誤差範囲はE1となる。一方、図6(B)に示すように、第1距離D1および第2距離D2と比較してカメラ間距離Dcが小さい場合には、奥行き方向の誤差範囲はE2となる。このように、第1距離D1および第2距離D2に対してカメラ間距離Dcを適切に調整することによって、誤差範囲が小さくなる(計測誤差が低減される)。
(Operation of this embodiment)
The operation of this embodiment will be described with reference to FIG. As shown in FIG. 6, when the object OB is reflected on the corresponding pixel Px of the two-dimensional image, the range of light passing through the corresponding pixel Px becomes the measurement error range. Therefore, as shown in FIG. 6A, when the inter-camera distance Dc, the first distance D1, and the second distance D2 are close (match), the error range in the depth direction is E1. On the other hand, as shown in FIG. 6B, when the inter-camera distance Dc is smaller than the first distance D1 and the second distance D2, the error range in the depth direction is E2. Thus, by appropriately adjusting the inter-camera distance Dc with respect to the first distance D1 and the second distance D2, the error range becomes smaller (measurement error is reduced).

なお、カメラ間距離Dcを大きくし過ぎると、図3から分かるように、第1カメラ11の視野(画角)A1と第2カメラ12の視野(画角)A2との重複領域(計測可能範囲)がY1方向に遠ざかって狭くなる。また、カメラ間距離Dcを大きくするほど第1距離D1および第2距離D2を大きくとることになるので、その分、精度向上の阻害要因となる。さらに、対象物OBの移動に伴って第1カメラ11および第2カメラ12を移動させるための移動範囲を大きくする必要が生じ、移動機構14を含めたモーショントラッカ装置1が大型化してしまう。そのため、対象物OBと、第1カメラ11および第2カメラ12との相対位置関係として、カメラ間距離Dcと、第1距離D1と、第2距離D2とを互いに近づける(正三角形に近づける)関係にすることが、計測精度と計測可能範囲および装置サイズとのバランスの点から好ましい。   If the inter-camera distance Dc is excessively increased, as shown in FIG. 3, the overlapping area (measurable range) of the field of view (view angle) A1 of the first camera 11 and the field of view (view angle) A2 of the second camera 12 is understood. ) Goes away in the Y1 direction and becomes narrower. Further, as the inter-camera distance Dc is increased, the first distance D1 and the second distance D2 are increased, which is an obstacle to accuracy improvement. Furthermore, it is necessary to increase the moving range for moving the first camera 11 and the second camera 12 with the movement of the object OB, and the motion tracker device 1 including the moving mechanism 14 is enlarged. Therefore, as the relative positional relationship between the object OB and the first camera 11 and the second camera 12, the inter-camera distance Dc, the first distance D1, and the second distance D2 are close to each other (close to an equilateral triangle). Is preferable from the viewpoint of balance between measurement accuracy, measurable range, and apparatus size.

(本実施形態の効果)
本実施形態では、以下のような効果を得ることができる。
(Effect of this embodiment)
In the present embodiment, the following effects can be obtained.

本実施形態では、上記のように、第1カメラ11および第2カメラ12をそれぞれ移動させて、第1カメラ11および第2カメラ12の間のカメラ間距離Dcを調整するための移動機構14と、対象物OBの3次元位置座標に基づいて、第1カメラ11と対象物OBとの間の第1距離D1と、第2カメラ12と対象物OBとの間の第2距離D2と、カメラ間距離Dcとが所定の関係になるようにカメラ間距離Dcを調整する制御を行うカメラ位置制御手段16とを設ける。これにより、カメラ間距離Dcを調整することにより、対象物OBと、第1カメラ11と、第2カメラ12との相対位置関係を、より高精度な計測が可能な所定の関係になるように調整することができる。つまり、第1距離D1および第2距離D2に対して、カメラ間距離Dcが相対的に小さくまたは大きくなり過ぎないように調整して、高精度な計測に適した適切な位置関係にすることができる。その結果、本実施形態のモーショントラッカ装置1によれば、計測誤差を低減して高精度な3次元計測を行うことができる。   In the present embodiment, as described above, the moving mechanism 14 for adjusting the inter-camera distance Dc between the first camera 11 and the second camera 12 by moving the first camera 11 and the second camera 12 respectively. Based on the three-dimensional position coordinates of the object OB, the first distance D1 between the first camera 11 and the object OB, the second distance D2 between the second camera 12 and the object OB, and the camera Camera position control means 16 is provided for performing control for adjusting the inter-camera distance Dc so that the inter-distance Dc has a predetermined relationship. Thus, by adjusting the inter-camera distance Dc, the relative positional relationship between the object OB, the first camera 11, and the second camera 12 is set to a predetermined relationship that enables more accurate measurement. Can be adjusted. In other words, the inter-camera distance Dc is adjusted so as not to be relatively small or too large with respect to the first distance D1 and the second distance D2, and an appropriate positional relationship suitable for high-accuracy measurement is obtained. it can. As a result, according to the motion tracker device 1 of the present embodiment, it is possible to reduce the measurement error and perform highly accurate three-dimensional measurement.

また、本実施形態では、上記のように、カメラ間距離Dcと、第1距離D1と、第2距離D2と、を互いに近づける制御を行うようにカメラ位置制御手段16を構成する。これにより、カメラ間距離Dcが小さくなり過ぎて奥行き方向の誤差が大きくなることを抑制可能で、かつ、第1距離D1および第2距離D2が大きくなり過ぎて精度低下の要因になることも抑制可能な適切な相対位置関係になるように、カメラ間距離Dcを調整することができる。その結果、計測誤差を効果的に低減することができる。   In the present embodiment, as described above, the camera position control unit 16 is configured to perform control so that the inter-camera distance Dc, the first distance D1, and the second distance D2 are close to each other. As a result, it is possible to suppress the inter-camera distance Dc from becoming too small and increasing the error in the depth direction, and it is also possible to prevent the first distance D1 and the second distance D2 from becoming too large and causing a decrease in accuracy. The inter-camera distance Dc can be adjusted so that an appropriate relative positional relationship is possible. As a result, measurement errors can be effectively reduced.

また、本実施形態では、上記のように、カメラ間距離Dcと、第1距離D1と、第2距離D2と、を所定の許容範囲RA内で互いに一致させる制御を行うようにカメラ位置制御手段16を構成する。これにより、対象物OBと第1カメラ11および第2カメラ12とが略正三角形の各頂点に配置される相対位置関係で、3次元計測を行うことができる。この結果、過度に装置が大型化することを抑制し、かつ、計測誤差を更に効果的に低減することが可能となる。また、各距離(カメラ間距離Dc、第1距離D1および第2距離D2)を厳密に一致させる制御を行う場合と異なり、各距離が許容範囲RA内で互いに異なる場合も許容されるので、第1カメラ11および第2カメラ12の位置制御(カメラ間距離Dcの制御)が煩雑化するのを抑制することができる。   In the present embodiment, as described above, the camera position control means performs control so that the inter-camera distance Dc, the first distance D1, and the second distance D2 coincide with each other within a predetermined allowable range RA. 16 is configured. Thereby, three-dimensional measurement can be performed with the relative positional relationship in which the object OB and the first camera 11 and the second camera 12 are arranged at the vertices of a substantially equilateral triangle. As a result, it is possible to suppress an excessive increase in size of the apparatus and to further effectively reduce measurement errors. In addition, unlike the case where control is performed so that each distance (the inter-camera distance Dc, the first distance D1, and the second distance D2) is exactly the same, it is allowed that the distances are different from each other within the allowable range RA. It is possible to prevent the position control of the first camera 11 and the second camera 12 (control of the inter-camera distance Dc) from becoming complicated.

また、本実施形態では、上記のように、カメラ間距離Dc、第1距離D1および第2距離D2のいずれかが許容範囲RA外となった場合に、単位距離D3ごとに第1カメラ11および第2カメラ12を移動させることにより、カメラ間距離Dcを調整するようにカメラ位置制御手段16を構成する。これにより、いずれかの距離が許容範囲RA外となる場合(精度低下が大きくなる場合)に、対象物OBと第1カメラ11および第2カメラ12とを適切な相対位置関係に調整することができる。この際、単位距離D3ごとに第1カメラ11および第2カメラ12を移動させるので、キャリブレーションを予め単位距離D3ごとの複数個所で行うだけで済む。その結果、移動後の各位置での3次元計測を容易に行うことができる。   Further, in the present embodiment, as described above, when any of the inter-camera distance Dc, the first distance D1, and the second distance D2 is outside the allowable range RA, the first camera 11 and the unit camera D for each unit distance D3. The camera position control means 16 is configured to adjust the inter-camera distance Dc by moving the second camera 12. Thereby, when any one of the distances is outside the allowable range RA (when accuracy deterioration is large), the object OB and the first camera 11 and the second camera 12 can be adjusted to an appropriate relative positional relationship. it can. At this time, since the first camera 11 and the second camera 12 are moved for each unit distance D3, it is only necessary to perform calibration in advance at a plurality of locations for each unit distance D3. As a result, three-dimensional measurement at each position after movement can be easily performed.

また、本実施形態では、上記のように、位置算出手段15により算出された3次元位置座標を用いてフィードバック制御を行うことにより、対象物OBの移動に応じてカメラ間距離Dcの調整を行うようにカメラ位置制御手段16を構成する。これにより、対象物OBと第1カメラ11および第2カメラ12との相対位置関係を維持することができるので、対象物OBの移動によって相対位置関係が変化する場合でも、3次元計測精度を維持することができる。   In the present embodiment, as described above, the inter-camera distance Dc is adjusted according to the movement of the object OB by performing feedback control using the three-dimensional position coordinates calculated by the position calculation unit 15. Thus, the camera position control means 16 is configured. Thereby, since the relative positional relationship between the object OB and the first camera 11 and the second camera 12 can be maintained, even when the relative positional relationship changes due to the movement of the object OB, the three-dimensional measurement accuracy is maintained. can do.

また、本実施形態では、上記のように、直線状のレール14aと、レール14a上で第1カメラ11および第2カメラ12をそれぞれ支持する複数の台座14bと、複数の台座14bをそれぞれレール14aに沿って移動させるための複数のモータ14cとを含む移動機構14を設ける。これにより、第1カメラ11および第2カメラ12をレール14aに沿って移動させる簡素な構成で、カメラ間距離Dcを調整することができる。この結果、カメラ間距離Dcを調整するための装置構成および制御が複雑化するのを抑制することができる。   In the present embodiment, as described above, the linear rail 14a, the plurality of pedestals 14b that respectively support the first camera 11 and the second camera 12 on the rail 14a, and the plurality of pedestals 14b are respectively connected to the rail 14a. A moving mechanism 14 including a plurality of motors 14c for moving along the direction is provided. Accordingly, the inter-camera distance Dc can be adjusted with a simple configuration in which the first camera 11 and the second camera 12 are moved along the rail 14a. As a result, it is possible to prevent the apparatus configuration and control for adjusting the inter-camera distance Dc from becoming complicated.

また、本実施形態では、上記のように、第1カメラ11、第2カメラ12および移動機構14を、利用者が搭乗する移動体4に設け、移動体4に搭乗する利用者の頭部5に装着されるヘルメット23(マーカ23a)を対象物OBとする。これにより、ヘルメット23の現在角度を高精度に計測することが可能なモーショントラッカ装置1(ヘッドモーショントラッカ)を提供することができる。   In the present embodiment, as described above, the first camera 11, the second camera 12, and the moving mechanism 14 are provided in the moving body 4 on which the user rides, and the user's head 5 that gets on the moving body 4. Let the helmet 23 (marker 23a) with which it is mounted | worn is set as the target object OB. Thereby, the motion tracker apparatus 1 (head motion tracker) which can measure the present angle of the helmet 23 with high accuracy can be provided.

(実験結果の説明)
次に、図7を参照して、本発明の効果を確認するために行った実験結果について説明する。
(Explanation of experimental results)
Next, with reference to FIG. 7, the results of experiments conducted to confirm the effects of the present invention will be described.

実験は、図7に示すように、第1距離D1および第2距離D2に対してカメラ間距離Dcを変更した複数の計測条件で、対象物OBの3次元位置計測を行い、実際に測定した対象物OBの3次元位置(実測値)と計測値との誤差の大きさを評価した。対象物OBの3次元位置計測は、対象物OBの位置を変更して15回行い、それぞれの計測における誤差の平均値を評価した。   As shown in FIG. 7, the experiment was performed by measuring the three-dimensional position of the object OB under a plurality of measurement conditions in which the inter-camera distance Dc was changed with respect to the first distance D1 and the second distance D2. The magnitude of the error between the three-dimensional position (measured value) of the object OB and the measured value was evaluated. The three-dimensional position measurement of the object OB was performed 15 times by changing the position of the object OB, and the average value of errors in each measurement was evaluated.

計測条件は、以下の3種類である。各計測で、第1距離D1および第2距離D2は一定値(500mm)とした。まず、本実施形態の計測条件として、カメラ間距離Dcを500mmに設定し、第1距離D1および第2距離D2とカメラ間距離Dcとを一致させた。   There are the following three types of measurement conditions. In each measurement, the first distance D1 and the second distance D2 were fixed values (500 mm). First, as a measurement condition of the present embodiment, the inter-camera distance Dc is set to 500 mm, and the first distance D1, the second distance D2, and the inter-camera distance Dc are matched.

比較例1として、カメラ間距離Dcを200mmに設定した。また、比較例2として、カメラ間距離Dcを350mmに設定した。比較例1および2は、第1距離D1および第2距離D2に対してカメラ間距離Dcが相対的に小さい。比較例1が、第1距離D1および第2距離D2に対するカメラ間距離Dcの大きさが最も小さい。   As Comparative Example 1, the inter-camera distance Dc was set to 200 mm. Further, as Comparative Example 2, the inter-camera distance Dc was set to 350 mm. In Comparative Examples 1 and 2, the inter-camera distance Dc is relatively small with respect to the first distance D1 and the second distance D2. In Comparative Example 1, the size of the inter-camera distance Dc with respect to the first distance D1 and the second distance D2 is the smallest.

得られた計測誤差の平均は、本実施形態での誤差平均を1.00とした場合に、比較例1では1.47、比較例2では1.13となり、比較例では誤差が大きくなった。これにより、本実施形態によれば、効果的に計測誤差を低減して高精度な3次元計測を行えることが確認された。   The average measurement error obtained was 1.47 in Comparative Example 1 and 1.13 in Comparative Example 2 when the error average in this embodiment was 1.00, and the error was large in the Comparative Example. . Thereby, according to this embodiment, it was confirmed that a measurement error can be reduced effectively and highly accurate three-dimensional measurement can be performed.

(変形例)
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
(Modification)
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiment but by the scope of claims for patent, and further includes all modifications (modifications) within the meaning and scope equivalent to the scope of claims for patent.

たとえば、上記実施形態では、HMDシステムに用いられるモーショントラッカ装置に本発明を適用した例を示したが、本発明はこれに限られない。本発明は、HMDシステム以外の用途に用いられるモーショントラッカ装置に適用してもよい。対象物の動き(3次元位置の変化)をデータとして記録するためのモーションキャプチャー用途などに本発明を適用してもよい。   For example, in the above-described embodiment, an example in which the present invention is applied to a motion tracker device used in an HMD system has been described, but the present invention is not limited to this. The present invention may be applied to a motion tracker device used for purposes other than the HMD system. The present invention may be applied to a motion capture application for recording a motion of an object (change in a three-dimensional position) as data.

また、上記実施形態では、航空機(飛行機やヘリコプタ)などの移動体に搭載されるHMDシステムに本発明を適用した例を示したが、本発明はこれに限られない。本発明では、たとえば、自動車などの陸上移動体や、船舶などの水上移動体に搭載されるHMDシステムに本発明を適用してもよい。また、たとえばゲーム用途に用いられるHMDシステムや、日常生活においてユーザに装着されて使用されるHMDシステムに本発明を適用してもよい。   Moreover, although the example which applied this invention to the HMD system mounted in moving bodies, such as an aircraft (an airplane and a helicopter) was shown in the said embodiment, this invention is not limited to this. In the present invention, for example, the present invention may be applied to an HMD system mounted on a land mobile body such as an automobile or a water mobile body such as a ship. Further, the present invention may be applied to, for example, an HMD system used for a game application or an HMD system used by being worn by a user in daily life.

また、上記実施形態では、第1カメラ11および第2カメラ12により対象物の3次元位置を光学的に計測するモーショントラッカ装置1の例を示したが、本発明はこれに限られない。本発明では、モーショントラッカ装置は、カメラに加えて、たとえば対象物に取り付けられる加速度センサおよびジャイロセンサ等のセンサを用いて対象物の3次元位置を計測してもよい。また、3つ以上のカメラを設けてもよい。   Moreover, in the said embodiment, although the example of the motion tracker apparatus 1 which optically measures the three-dimensional position of a target object with the 1st camera 11 and the 2nd camera 12 was shown, this invention is not limited to this. In the present invention, the motion tracker device may measure the three-dimensional position of the object using a sensor such as an acceleration sensor and a gyro sensor attached to the object in addition to the camera. Three or more cameras may be provided.

また、上記実施形態では、第1カメラ11および第2カメラ12を直線移動させる1軸の移動機構14を設けた例を示したが、本発明はこれに限られない。本発明では、移動機構は、カメラを所定の平面内で移動させる2軸の移動機構であってもよいし、カメラを3次元的に移動させる3軸以上の移動機構であってもよい。また、第1カメラおよび第2カメラは、別々の移動機構によって互いに独立して移動してもよい。   Moreover, although the example which provided the uniaxial moving mechanism 14 which linearly moves the 1st camera 11 and the 2nd camera 12 was shown in the said embodiment, this invention is not limited to this. In the present invention, the moving mechanism may be a two-axis moving mechanism that moves the camera in a predetermined plane, or may be a three-axis or more moving mechanism that moves the camera three-dimensionally. Further, the first camera and the second camera may be moved independently of each other by separate moving mechanisms.

また、上記実施形態では、カメラ間距離Dcと、第1距離D1と、第2距離D2との所定の関係の一例として、カメラ間距離Dcと、第1距離D1と、第2距離D2とを互いに一致させる例(対象物OBと、第1カメラ11と、第2カメラ12とが正三角形を成すように配置される例)を示したが、本発明はこれに限られない。本発明では、第1距離D1および第2距離D2とカメラ間距離Dcとを異ならせてもよい。たとえば、図8に示すように、対象物OBと、第1カメラ11と、第2カメラ12とが直角二等辺三角形を成すようにしてもよい。この場合、Dc:D1:D2=√2:1:1という関係となる。ただし、この場合、上記実施形態と比較して移動機構が大型化してしまうため、カメラ間距離Dcと、第1距離D1と、第2距離D2とを互いに近づけることが好ましい。   In the above embodiment, as an example of the predetermined relationship between the inter-camera distance Dc, the first distance D1, and the second distance D2, the inter-camera distance Dc, the first distance D1, and the second distance D2 are set as follows. Although the example (object OB, the 1st camera 11, and the 2nd camera 12 are arrange | positioned so that an equilateral triangle may be formed) matched with each other was shown, this invention is not limited to this. In the present invention, the first distance D1 and the second distance D2 may be different from the inter-camera distance Dc. For example, as shown in FIG. 8, the object OB, the first camera 11, and the second camera 12 may form a right isosceles triangle. In this case, the relationship is Dc: D1: D2 = √2: 1: 1. However, in this case, since the moving mechanism becomes larger as compared with the above embodiment, it is preferable that the inter-camera distance Dc, the first distance D1, and the second distance D2 are close to each other.

また、上記実施形態では、第1距離D1と第2距離D2とを互いに近づける例を示したが、本発明はこれに限られない。本発明では、第1距離D1と第2距離D2とを異ならせてもよい。   Moreover, although the example which makes the 1st distance D1 and the 2nd distance D2 approach mutually was shown in the said embodiment, this invention is not limited to this. In the present invention, the first distance D1 and the second distance D2 may be different.

また、上記実施形態では、第1カメラ11および第2カメラ12を台座14b上で固定した例を示したが、本発明はこれに限られない。本発明では、第1カメラおよび第2カメラを台座上で首振り可能に構成し、対象物の位置に追従してカメラの向きを調整してもよい。   Moreover, although the example which fixed the 1st camera 11 and the 2nd camera 12 on the base 14b was shown in the said embodiment, this invention is not limited to this. In the present invention, the first camera and the second camera may be configured to swing on the pedestal, and the camera orientation may be adjusted following the position of the object.

また、上記実施形態では、単位距離D3ごとに第1カメラ11および第2カメラ12を移動させる構成の例を示したが、本発明はこれに限られない。本発明では、単位距離を設定せずに、任意の距離だけ第1カメラ11および第2カメラ12を移動させるように構成してもよい。この場合、各カメラのキャリブレーションは、移動後の位置に応じてリアルタイムで行えばよい。すなわち、HMD2のヘルメット23にジャイロセンサなどを設けて、ヘルメット23(マーカ23a)の向きを検出できるようにする。そして、第1カメラ11および第2カメラ12の移動後の対象物OBの3次元位置計測結果と、センサの検出結果(実測値)とに基づいて、キャリブレーションを行うことが可能である。   Moreover, in the said embodiment, although the example of the structure which moves the 1st camera 11 and the 2nd camera 12 for every unit distance D3 was shown, this invention is not limited to this. In the present invention, the first camera 11 and the second camera 12 may be moved by an arbitrary distance without setting the unit distance. In this case, the calibration of each camera may be performed in real time according to the position after movement. That is, a gyro sensor or the like is provided on the helmet 23 of the HMD 2 so that the orientation of the helmet 23 (marker 23a) can be detected. Then, calibration can be performed based on the three-dimensional position measurement result of the object OB after the movement of the first camera 11 and the second camera 12 and the detection result (actual measurement value) of the sensor.

1 モーショントラッカ装置
4 移動体
5 頭部
11 第1カメラ
12 第2カメラ
14 移動機構
14a レール
14b 台座
14c モータ
15 位置算出手段
16 カメラ位置制御手段
23 ヘルメット
D1 第1距離
D2 第2距離
D3 単位距離
Dc カメラ間距離
OB 対象物
RA 許容範囲
DESCRIPTION OF SYMBOLS 1 Motion tracker apparatus 4 Moving body 5 Head 11 1st camera 12 2nd camera 14 Moving mechanism 14a Rail 14b Base 14c Motor 15 Position calculation means 16 Camera position control means 23 Helmet D1 1st distance D2 2nd distance D3 Unit distance Dc Inter-camera distance OB Object RA Tolerable range

Claims (7)

対象物の2次元画像を取得する第1カメラと、
前記第1カメラとは異なる方向から前記対象物の2次元画像を取得する第2カメラと、
前記第1カメラおよび前記第2カメラをそれぞれ移動させて、前記第1カメラおよび前記第2カメラの間のカメラ間距離を調整するための移動機構と、
前記第1カメラおよび前記第2カメラの2次元画像に基づいて、前記対象物の3次元位置座標を算出する位置算出手段と、
前記対象物の3次元位置座標に基づいて、前記第1カメラと前記対象物との間の第1距離と、前記第2カメラと前記対象物との間の第2距離と、前記カメラ間距離とが所定の関係になるように前記カメラ間距離を調整する制御を行うカメラ位置制御手段とを備える、モーショントラッカ装置。
A first camera that acquires a two-dimensional image of the object;
A second camera that acquires a two-dimensional image of the object from a different direction from the first camera;
A moving mechanism for adjusting the distance between the first camera and the second camera by moving the first camera and the second camera, respectively;
Position calculating means for calculating three-dimensional position coordinates of the object based on two-dimensional images of the first camera and the second camera;
Based on the three-dimensional position coordinates of the object, a first distance between the first camera and the object, a second distance between the second camera and the object, and the inter-camera distance And a camera position control unit that performs control to adjust the inter-camera distance so that a predetermined relationship is established.
前記カメラ位置制御手段は、前記カメラ間距離と、前記第1距離と、前記第2距離と、を互いに近づける制御を行うように構成されている、請求項1に記載のモーショントラッカ装置。   2. The motion tracker device according to claim 1, wherein the camera position control unit is configured to control the inter-camera distance, the first distance, and the second distance to be close to each other. 前記カメラ位置制御手段は、前記カメラ間距離と、前記第1距離と、前記第2距離と、を所定の許容範囲内で互いに一致させる制御を行うように構成されている、請求項2に記載のモーショントラッカ装置。   The said camera position control means is comprised so that the control which makes the said inter-camera distance, the said 1st distance, and the said 2nd distance mutually correspond within a predetermined | prescribed allowance range may be performed. Motion tracker device. 前記カメラ位置制御手段は、前記カメラ間距離、前記第1距離および前記第2距離のいずれかが前記許容範囲外となった場合に、所定の単位距離ごとに前記第1カメラおよび前記第2カメラを移動させることにより、前記カメラ間距離を調整するように構成されている、請求項3に記載のモーショントラッカ装置。   The camera position control means is configured to provide the first camera and the second camera for each predetermined unit distance when any of the inter-camera distance, the first distance, and the second distance is out of the allowable range. The motion tracker device according to claim 3, wherein the motion tracker device is configured to adjust the inter-camera distance by moving the camera. 前記位置算出手段は、所定の時間間隔毎に前記対象物の3次元位置座標を算出し、
前記カメラ位置制御手段は、前記位置算出手段により算出された前記3次元位置座標を用いてフィードバック制御を行うことにより、前記対象物の移動に応じて前記カメラ間距離の調整を行うように構成されている、請求項1〜4のいずれか1項に記載のモーショントラッカ装置。
The position calculation means calculates a three-dimensional position coordinate of the object at predetermined time intervals,
The camera position control means is configured to adjust the inter-camera distance according to the movement of the object by performing feedback control using the three-dimensional position coordinates calculated by the position calculation means. The motion tracker device according to any one of claims 1 to 4.
前記移動機構は、直線状のレールと、前記レール上で前記第1カメラおよび前記第2カメラをそれぞれ支持する複数の台座と、前記複数の台座をそれぞれ前記レールに沿って移動させるための複数のモータとを含む、請求項1〜5のいずれか1項に記載のモーショントラッカ装置。   The moving mechanism includes a linear rail, a plurality of pedestals that respectively support the first camera and the second camera on the rail, and a plurality of pedestals for moving the pedestals along the rails. The motion tracker device according to claim 1, comprising a motor. 前記第1カメラ、前記第2カメラおよび前記移動機構は、利用者が搭乗する移動体に設けられ、
前記対象物は、前記移動体に搭乗する利用者の頭部に装着されるヘルメットである、請求項1〜6のいずれか1項に記載のモーショントラッカ装置。
The first camera, the second camera, and the moving mechanism are provided on a moving body on which a user rides,
The motion tracker device according to any one of claims 1 to 6, wherein the object is a helmet mounted on a head of a user who rides on the moving body.
JP2015030883A 2015-02-19 2015-02-19 Motion tracker device Pending JP2016151566A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015030883A JP2016151566A (en) 2015-02-19 2015-02-19 Motion tracker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015030883A JP2016151566A (en) 2015-02-19 2015-02-19 Motion tracker device

Publications (1)

Publication Number Publication Date
JP2016151566A true JP2016151566A (en) 2016-08-22

Family

ID=56696268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015030883A Pending JP2016151566A (en) 2015-02-19 2015-02-19 Motion tracker device

Country Status (1)

Country Link
JP (1) JP2016151566A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106767817A (en) * 2016-12-01 2017-05-31 腾讯科技(深圳)有限公司 A kind of method and aircraft for obtaining flight location information
CN108204790A (en) * 2017-11-20 2018-06-26 国网山东省电力公司泰安供电公司 A kind of measuring device and method based on threedimensional model
US10338397B1 (en) 2018-04-18 2019-07-02 Hyundai Mobis Co., Ltd. Vehicle head-up display device and control method thereof
JP2019142290A (en) * 2018-02-16 2019-08-29 大豊精機株式会社 Remote control device
JP2019182237A (en) * 2018-04-11 2019-10-24 ヒュンダイ・モービス・カンパニー・リミテッド Vehicular head up display device and control method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106767817A (en) * 2016-12-01 2017-05-31 腾讯科技(深圳)有限公司 A kind of method and aircraft for obtaining flight location information
CN106767817B (en) * 2016-12-01 2019-01-04 腾讯科技(深圳)有限公司 A kind of method and aircraft obtaining flight location information
CN108204790A (en) * 2017-11-20 2018-06-26 国网山东省电力公司泰安供电公司 A kind of measuring device and method based on threedimensional model
CN108204790B (en) * 2017-11-20 2021-08-24 国网山东省电力公司泰安供电公司 Measuring device and method based on three-dimensional model
JP2019142290A (en) * 2018-02-16 2019-08-29 大豊精機株式会社 Remote control device
JP2019182237A (en) * 2018-04-11 2019-10-24 ヒュンダイ・モービス・カンパニー・リミテッド Vehicular head up display device and control method thereof
US10338397B1 (en) 2018-04-18 2019-07-02 Hyundai Mobis Co., Ltd. Vehicle head-up display device and control method thereof

Similar Documents

Publication Publication Date Title
KR102213728B1 (en) Active binocular alignment for near eye displays
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
JP5618840B2 (en) Aircraft flight control system
US10591735B2 (en) Head-mounted display device and image display system
US9158305B2 (en) Remote control system
JP5775632B2 (en) Aircraft flight control system
JP2020537383A (en) Head-mounted display tracking system
JP2016151566A (en) Motion tracker device
JP5594944B2 (en) Motion tracker device
EP4073618A1 (en) Content stabilization for head-mounted displays
JP4924342B2 (en) Motion tracker device
JP5092279B2 (en) Head motion tracker device and method of using the same
US9225894B2 (en) Method and device for focusing a film camera
JP5505363B2 (en) Motion tracker device
JP5092300B2 (en) Head motion tracker device
JP4905311B2 (en) Head motion tracker system and calibration device used therefor
TWI436270B (en) Telescopic observation method for virtual and augmented reality and apparatus thereof
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP2009036517A (en) Head motion tracker device
JP4656017B2 (en) Head motion tracker device
JP2008262264A (en) Head motion tracker apparatus
JP4784591B2 (en) Motion tracker device
JP4867837B2 (en) Motion tracker device
JP4892982B2 (en) Magnetic mapping device
KR20160007741A (en) Surgical robot controlling system