JP2008065416A - Head motion tracker device - Google Patents

Head motion tracker device Download PDF

Info

Publication number
JP2008065416A
JP2008065416A JP2006239813A JP2006239813A JP2008065416A JP 2008065416 A JP2008065416 A JP 2008065416A JP 2006239813 A JP2006239813 A JP 2006239813A JP 2006239813 A JP2006239813 A JP 2006239813A JP 2008065416 A JP2008065416 A JP 2008065416A
Authority
JP
Japan
Prior art keywords
head
optical
motion tracker
relative
helmet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006239813A
Other languages
Japanese (ja)
Other versions
JP4967546B2 (en
Inventor
Ken Hirooka
研 廣岡
Akinori Fujita
明徳 藤田
Kazuo Tawada
一穂 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2006239813A priority Critical patent/JP4967546B2/en
Publication of JP2008065416A publication Critical patent/JP2008065416A/en
Application granted granted Critical
Publication of JP4967546B2 publication Critical patent/JP4967546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a head motion tracker device capable of calculating the head angle of a passenger with respect to reference coordinates set in a traveling object with high precision. <P>SOLUTION: This head motion tracker device 1 is provided with: an optical system motion tracker mounted on the head of a passenger 3, and equipped with an optical marker group 7 configured of at least three optical markers and a camera device 2 mounted on a traveling object for detecting an optical marker; a relative position storage part 47 for storing the relation of the relative positions of optical markers; and a head information calculation part 22 for calculating relative head information including the head angle of the passenger 3 with respect to reference coordinates set in the traveling object by the optical system motion tracker and the relative position storage part 47. This head motion tracker device 1 is provided with a relative position calculation part 23 for calculating the relation of the relative positions of each of the optical markers by making the camera device 2 detect the optical markers. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、移動体に設定された基準座標に対する少なくとも搭乗者の頭部角度を測定するためのヘッドモーショントラッカ装置(以下、HMT装置ともいう)に関する。本発明は、例えば、ゲーム機や乗物等の移動体で用いられる頭部装着型表示装置付ヘルメットの現在角度(すなわち、現在の頭部角度)を算出するHMT装置等に利用される。   The present invention relates to a head motion tracker device (hereinafter also referred to as an HMT device) for measuring at least an occupant's head angle with respect to reference coordinates set on a moving body. The present invention is used in, for example, an HMT device that calculates a current angle (that is, a current head angle) of a helmet with a head-mounted display device used in a moving body such as a game machine or a vehicle.

例えば、救難飛行艇による救難活動では、発見した救難目標を見失うことがないようにするため、頭部装着型表示装置付ヘルメットにより表示される照準画像と救難目標とが対応した時にロックすることにより、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体(救難飛行艇)の緯度、経度、高度、姿勢に加えて、飛行体に設定された基準座標に対するパイロットの頭部角度を測定している。このために、HMT装置が利用されている。   For example, in a rescue operation by a rescue flying boat, by locking the aiming image displayed by the helmet with a head-mounted display device and the rescue target so as not to lose sight of the found rescue target, Calculating the position of the locked rescue target has been done. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude and attitude of the flying object (rescue flying boat), the pilot head angle with respect to the reference coordinates set on the flying object is measured. ing. For this purpose, an HMT apparatus is used.

このような従来のHMT装置として、例えば、複数の反射板を頭部装着型表示装置付ヘルメットに取り付けるとともに光源から光を照射したときの反射光をカメラ装置でモニタする光学方式HMT装置が開示されている(例えば、特許文献1参照)。また、本出願人が先に出願しているHMT装置もある(特願2005−106418号)。具体的には、頭部装着型表示装置付ヘルメットの外周面上に、光学マーカー群として、LED(発光ダイオード)を互いに離隔するようにして3箇所に取り付け、これら3つのLEDの相対的な位置(相対位置)の関係を、設計情報(頭部装着型表示装置付ヘルメットの設計図等)の位置パラメータを用いて予め記憶させておく。そして、これら3つのLEDを、ステレオ視が可能でかつ設置場所が固定された2台のカメラで同時に撮影することで、所謂、三角測量の原理により、現在の3つのLEDの相対位置の関係を算出する。カメラ装置で頭部装着型表示装置付ヘルメットに固定された3点の位置(3つのLEDの位置)が特定できれば、記憶された位置パラメータを参照することにより、カメラ装置に対する頭部装着型表示装置付ヘルメットの位置や向き(角度)が特定できるので、その結果、基準座標に対する頭部装着型表示装置付ヘルメットの現在位置や現在角度を算出している。
特表平9−506194号公報
As such a conventional HMT device, for example, an optical HMT device is disclosed in which a plurality of reflecting plates are attached to a helmet with a head-mounted display device and the reflected light when the light is irradiated from the light source is monitored by the camera device. (For example, refer to Patent Document 1). There is also an HMT device that the applicant has applied for earlier (Japanese Patent Application No. 2005-106418). Specifically, on the outer peripheral surface of the helmet with a head-mounted display device, as an optical marker group, LEDs (light emitting diodes) are attached at three locations so as to be separated from each other, and the relative positions of these three LEDs The relationship of (relative position) is stored in advance using position parameters of design information (such as a design drawing of a helmet with a head-mounted display device). Then, by photographing these three LEDs simultaneously with two cameras that can be viewed in stereo and fixed in place, the relationship between the current relative positions of the three LEDs can be determined by the so-called triangulation principle. calculate. If three positions (positions of three LEDs) fixed to the helmet with a head-mounted display device can be specified by the camera device, the head-mounted display device for the camera device is referred to by referring to the stored position parameters. Since the position and orientation (angle) of the attached helmet can be specified, as a result, the current position and the current angle of the helmet with a head-mounted display device with respect to the reference coordinates are calculated.
JP-T 9-506194

しかしながら、光学マーカーとしてLEDを使用した場合、設計情報の位置パラメータを用いて、実際にLEDが発光している中心(LEDの物理的発光中心)を記憶させることには問題があった。ここで、図9は、一般的なLEDの概略構成を示す断面図である。LED50は、半導体部51と、反射板52と、レンズ53とを有する。図9に示すように、LEDの外形形状から求めた中心と、実際にLEDが発光している中心(LEDの物理的発光中心)とに、製造の際に生じた差異が存在することがあり、LEDの外形形状から求めた中心(設計情報の位置パラメータ)を記憶させても、測定誤差が生じることがあった。さらに、頭部装着型表示装置付ヘルメットを搭乗者が装着するときに、頭部装着型表示装置付ヘルメットの顎紐を締め付けることにより頭部に固定するが、その際に頭部装着型表示装置付ヘルメットが変形するともに、LEDも変形することもあった。   However, when an LED is used as an optical marker, there is a problem in storing the center (the physical emission center of the LED) where the LED actually emits light using the position parameter of the design information. Here, FIG. 9 is a cross-sectional view showing a schematic configuration of a general LED. The LED 50 includes a semiconductor unit 51, a reflection plate 52, and a lens 53. As shown in FIG. 9, there may be a difference produced during manufacture between the center obtained from the outer shape of the LED and the center where the LED actually emits light (physical light emission center of the LED). Even if the center (position parameter of design information) obtained from the outer shape of the LED is stored, a measurement error may occur. Furthermore, when a passenger wears a helmet with a head-mounted display device, the chin strap of the helmet with a head-mounted display device is tightened to fix the head-mounted display device. While the attached helmet deformed, the LED sometimes deformed.

そこで、本発明は、移動体に設定された基準座標に対する搭乗者の頭部角度を高精度で算出することができるヘッドモーショントラッカ装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a head motion tracker device capable of calculating a passenger's head angle with respect to reference coordinates set on a moving body with high accuracy.

上記課題を解決するためになされた本発明のヘッドモーショントラッカ装置は、搭乗者の頭部に装着され、少なくとも3つの光学マーカーからなる光学マーカー群と、移動体に取り付けられ、前記光学マーカーを検出するカメラ装置とを備える光学方式モーショントラッカと、前記各光学マーカーのそれぞれの相対位置の関係を記憶する相対位置記憶部と、前記光学方式モーショントラッカ及び相対位置記憶部により、前記移動体に設定された基準座標に対する搭乗者の頭部角度を含む相対頭部情報を算出する頭部情報算出部とを備えたヘッドモーショントラッカ装置であって、前記カメラ装置で光学マーカーを検出させることにより、前記各光学マーカーのそれぞれの相対位置の関係を算出する相対位置算出部を備えるようにしている。   The head motion tracker device of the present invention, which has been made to solve the above-mentioned problems, is mounted on a passenger's head and includes an optical marker group consisting of at least three optical markers and a moving body, and detects the optical markers. Set in the movable body by an optical motion tracker provided with a camera device, a relative position storage unit that stores a relationship between the relative positions of the optical markers, and the optical motion tracker and the relative position storage unit. A head motion tracker device including a head information calculation unit that calculates relative head information including a head angle of a passenger with respect to a reference coordinate, and by detecting an optical marker with the camera device, A relative position calculator for calculating the relationship between the relative positions of the optical markers is provided.

ここで、「光学方式モーショントラッカ」とは、動きを検出しようとする物体に、発光体(ランプ、LED等)、反射体、蛍光体等の光学マーカーを取り付けるとともに、光学マーカー群を光学的に検出するカメラ装置等の光学検出手段を配置することにより、光学マーカー群を逐次検出することで、物体の動きを追跡することができるモーショントラッカのことをいう。   Here, the “optical motion tracker” means that an optical marker such as a light emitter (lamp, LED, etc.), a reflector, and a phosphor is attached to an object whose motion is to be detected, and the optical marker group is optically attached. It refers to a motion tracker that can track the movement of an object by sequentially detecting optical marker groups by arranging optical detection means such as a camera device to detect.

本発明のHMT装置によれば、相対位置算出部は、カメラ装置で光学マーカーを検出させることにより、各光学マーカーのそれぞれの相対位置の関係を算出する。つまり、光学マーカーが設置された頭部装着型表示装置付ヘルメットを搭乗者が装着するときに、頭部装着型表示装置付ヘルメットの顎紐を締め付けることにより、光学マーカーが変形しても、変形後である使用時の光学マーカーが発光している中心を実際に検出することで、相対位置記憶部に使用時の各光学マーカーのそれぞれの相対位置の関係を記憶させることができる。これにより、頭部情報算出部は、精度よく、移動体に設定された基準座標に対する搭乗者の頭部角度を含む相対頭部情報を算出することができる。   According to the HMT device of the present invention, the relative position calculation unit calculates the relationship between the relative positions of the optical markers by causing the camera device to detect the optical markers. In other words, when a passenger wears a helmet with a head-mounted display device on which an optical marker is installed, even if the optical marker is deformed, it is deformed by tightening the chin strap of the helmet with a head-mounted display device By actually detecting the center at which the optical marker in use at a later time emits light, the relative position storage unit can store the relationship between the relative positions of the optical markers in use. Thereby, the head information calculation unit can accurately calculate the relative head information including the passenger's head angle with respect to the reference coordinates set in the moving body.

(他の課題を解決するための手段および効果)
また、上記各発明において、前記光学マーカーは、少なくとも5つの光学マーカーからなり、前記相対位置算出部は、少なくとも4つの光学マーカーを検出させることにより、少なくとも4つの各光学マーカーのそれぞれの相対位置の関係を算出する第一段階と、少なくとも4つの光学マーカーのうちの3つの光学マーカーと、少なくとも4つの光学マーカー以外の光学マーカーを検出させることにより、各光学マーカーのそれぞれの相対位置の関係を算出する第二段階とを実行するようにしてもよい。
本発明のHMT装置によれば、カメラ装置で光学マーカー群を検出し続けることが可能なように、例えば、頭部装着型表示装置付ヘルメットの全体にわたって多数の光学マーカーを設置した場合に、全ての光学マーカーを一度にカメラ装置で検出ができなくても、第一段階と第二段階とを実行することにより、全ての光学マーカーのそれぞれの相対位置の関係を算出することができる。よって、全ての光学マーカーにおいて、実際に使用時の光学マーカーが発光している中心を検出することで、相対位置記憶部に使用時の各光学マーカーのそれぞれの相対位置の関係を記憶させることができる。
(Means and effects for solving other problems)
In each of the above inventions, the optical marker includes at least five optical markers, and the relative position calculation unit detects at least four optical markers to thereby detect the relative positions of the at least four optical markers. Calculate the relative position of each optical marker by detecting the first stage of calculating the relationship, three optical markers of at least four optical markers, and optical markers other than at least four optical markers The second stage may be executed.
According to the HMT device of the present invention, for example, when a large number of optical markers are installed throughout the helmet with a head-mounted display device, all the optical marker groups can be continuously detected by the camera device. Even if the optical markers cannot be detected by the camera device at a time, the relationship between the relative positions of all the optical markers can be calculated by executing the first stage and the second stage. Therefore, in all the optical markers, by detecting the center at which the optical marker in actual use emits light, the relative position storage unit can store the relationship of the relative position of each optical marker in use. it can.

以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and it goes without saying that various aspects are included without departing from the spirit of the present invention.

図1は、本発明の一実施形態であるHMT装置の概略構成を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメットの平面図である。また、図3は、飛行体に設定される基準座標(XYZ座標)を説明するための図である。さらに、図4〜図6は、LED群7の相対位置の関係の算出方法を説明するための図である。なお、本実施形態は、飛行体30に設定された基準座標(XYZ座標)でのパイロット3の頭部角度の算出を行うものである。
HMT装置1は、パイロット3の頭部に装着される頭部装着型表示装置付ヘルメット10と、飛行体30に固定された固定軸2cにより支持されるカメラ装置2(2a、2b)と、コンピュータにより構成される制御部20とから構成される。
FIG. 1 is a diagram showing a schematic configuration of an HMT device according to an embodiment of the present invention, and FIG. 2 is a plan view of the helmet with a head-mounted display device shown in FIG. FIG. 3 is a diagram for explaining reference coordinates (XYZ coordinates) set for the flying object. Further, FIGS. 4 to 6 are diagrams for explaining a method for calculating the relationship between the relative positions of the LED groups 7. In the present embodiment, the head angle of the pilot 3 at the reference coordinates (XYZ coordinates) set on the flying object 30 is calculated.
The HMT device 1 includes a head mounted helmet 10 with a display device mounted on the head of a pilot 3, a camera device 2 (2a, 2b) supported by a fixed shaft 2c fixed to the flying object 30, and a computer. It is comprised from the control part 20 comprised by these.

頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、パイロット3の目に導くコンバイナ8と、位置や向き(すなわち、頭部角度)を測定する際の指標となる光学マーカー群として機能するLED群7とを有する。なお、頭部装着型表示装置付ヘルメット10を装着したパイロット3は、表示器による表示画像とコンバイナ8の前方実在物とを視認することが可能となっている。   The helmet 10 with a head-mounted display device includes a display (not shown), a combiner 8 that guides the eyes of the pilot 3 by reflecting image display light emitted from the display, and a position and orientation (that is, LED group 7 functioning as an optical marker group serving as an index when measuring (head angle). In addition, the pilot 3 wearing the helmet 10 with a head-mounted display device can visually recognize the display image by the display and the front actual thing of the combiner 8.

LED群7は、図2に示すように、互いに異なる波長の赤外光を発光するLEDa、LEDb、LEDc、LEDd、LEDe及びLEDfの6つのLEDが互いに離隔するようにして配置されたものである。なお、頭部装着型表示装置付ヘルメット10のLEDa、LEDb、LEDc、LEDd、LEDe、LEDfの全ての相対位置の関係が、後述する算出手法で、メモリ41の相対位置記憶部47に記憶される。よって、後述する三角測量の手法で、現時点におけるLEDa、LEDb、LEDc、LEDd、LEDe及びLEDfのうちから少なくとも3つのLEDの位置を算出し、相対位置記憶部47に記憶されたデータを参照することにより、LED群7が固定されている頭部装着型表示装置付ヘルメット10の角度を特定できる。   As shown in FIG. 2, the LED group 7 is configured such that six LEDs of LEDa, LEDb, LEDc, LEDd, LEDe, and LEDf that emit infrared light having different wavelengths are separated from each other. . In addition, the relationship of all relative positions of LEDa, LEDb, LEDc, LEDd, LEDe, and LEDf of the helmet 10 with a head-mounted display device is stored in the relative position storage unit 47 of the memory 41 by a calculation method described later. . Therefore, the position of at least three LEDs among the current LEDa, LEDb, LEDc, LEDd, LEDe, and LEDf is calculated by the triangulation method to be described later, and the data stored in the relative position storage unit 47 is referred to. Thereby, the angle of the helmet 10 with a head mounted display device to which the LED group 7 is fixed can be specified.

飛行体30は、パイロット3が搭乗するコックピットであり、パイロット3が着席する座席30aと、カメラ装置2(2a、2b)とを備える。   The flying body 30 is a cockpit on which the pilot 3 is boarded, and includes a seat 30a on which the pilot 3 is seated and a camera device 2 (2a, 2b).

カメラ装置2(2a、2b)は、2台のカメラ2a、2bからなり、撮影方向が頭部装着型表示装置付ヘルメット10に向けられているとともに、頭部装着型表示装置付ヘルメット10の立体視が可能な一定の距離(d1)を隔てるように、飛行体30の天井に固定軸2cを介して設置されている。
よって、図3に示すように、LEDaのカメラ装置2(2a、2b)に対する位置は、カメラ装置2(2a、2b)に撮影された画像データ中に映し出されているLEDaの位置を抽出し、さらにカメラ2aからの方向角度(α°)とカメラ2bからの方向角度(β°)とを抽出し、カメラ2aとカメラ2bとの間の距離(d1)を用いることにより、三角測量の手法で算出することができるようにしてある。他の光学マーカーであるLEDのカメラ装置2(2a、2b)に対する位置についても、同様に算出されるようにしてある。
The camera device 2 (2a, 2b) is composed of two cameras 2a, 2b. The photographing direction is directed to the head-mounted helmet 10 with a display device, and the three-dimensional structure of the helmet 10 with a head-mounted display device. It is installed on the ceiling of the flying body 30 via the fixed shaft 2c so as to be separated by a certain distance (d1) that can be seen.
Therefore, as shown in FIG. 3, the position of the LEDa with respect to the camera device 2 (2a, 2b) is extracted from the position of the LEDa displayed in the image data photographed by the camera device 2 (2a, 2b). Further, by extracting the direction angle (α °) from the camera 2a and the direction angle (β °) from the camera 2b, and using the distance (d1) between the camera 2a and the camera 2b, a triangulation method can be used. It can be calculated. The positions of LEDs as other optical markers with respect to the camera device 2 (2a, 2b) are calculated in the same manner.

このときの各LEDの位置を、空間座標で表現することができるようにするために、カメラ装置2(2a、2b)に固定され、カメラ装置2とともに移動する座標系である基準座標(XYZ座標)を用いる。なお、基準座標(XYZ座標)の具体的な原点位置やXYZ軸方向の説明については後述する。基準座標(XYZ座標)によりLEDa、LEDb、LEDc、LEDd、LEDe、LEDfの位置座標は、(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)、(X4、Y4、Z4)、(X5、Y5、Z5)、(X6、Y6、Z6)としてそれぞれ表現できる。これらのうち、例えば、カメラ装置2(2a、2b)に対するLEDa、LEDb、LEDcの位置座標(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)が特定されることにより、LEDa、LEDb、LEDcが固定されている頭部装着型表示装置付ヘルメット10の角度が座標系を用いて特定できるようになる。
つまり、光学マーカー群であるLED群7から発光される赤外光を検出することにより、少なくとも3つのLEDの現在の位置座標を得ることで、カメラ装置2(2a、2b)に対する頭部装着型表示装置付ヘルメット10の現在の角度を算出でき、これを基準座標(XYZ座標)の座標軸に対する角度で表現できるようにしてある。なお、「座標軸に対する角度」とは、ロール方向Θ(X軸に対する回転)、エレベーション方向Φ(Y軸に対する回転)、アジマス方向Ψ(Z軸に対する回転)のことをいう。
In order to be able to express the position of each LED at this time in space coordinates, the reference coordinates (XYZ coordinates) which are fixed to the camera device 2 (2a, 2b) and move together with the camera device 2 ) Is used. The specific origin position of the reference coordinates (XYZ coordinates) and the explanation of the XYZ axis directions will be described later. The position coordinates of LEDa, LEDb, LEDc, LEDd, LEDe, LEDf by the reference coordinates (XYZ coordinates) are (X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3), (X4, Y4, Z4), (X5, Y5, Z5), and (X6, Y6, Z6). Among these, for example, the position coordinates (X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3) of LEDa, LEDb, LEDc with respect to the camera device 2 (2a, 2b) are specified. Thereby, the angle of the helmet 10 with a head-mounted display device to which LEDa, LEDb, and LEDc are fixed can be specified using the coordinate system.
That is, by detecting the infrared light emitted from the LED group 7 which is an optical marker group, the current position coordinates of at least three LEDs are obtained, so that the head mounted type for the camera device 2 (2a, 2b) is obtained. The current angle of the helmet 10 with a display device can be calculated, and this can be expressed by an angle with respect to the coordinate axis of the reference coordinates (XYZ coordinates). The “angle relative to the coordinate axis” refers to the roll direction Θ (rotation relative to the X axis), the elevation direction Φ (rotation relative to the Y axis), and the azimuth direction Ψ (rotation relative to the Z axis).

制御部20は、CPU21、メモリ41等からなるコンピュータにより構成され、各種の制御や演算処理を行う。制御部20のCPU21が実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部28と、頭部情報算出部22と、相対位置算出部23と、映像表示部25とからなる。   The control unit 20 is configured by a computer including a CPU 21, a memory 41, and the like, and performs various controls and arithmetic processes. The process executed by the CPU 21 of the control unit 20 will be described separately for each functional block. The process includes a motion tracker drive unit 28, a head information calculation unit 22, a relative position calculation unit 23, and a video display unit 25.

また、メモリ41は、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、基準座標(XYZ座標)を記憶する基準座標記憶部43と、LED群7のそれぞれの相対位置の関係を記憶する相対位置記憶部47とを含む。   Further, the memory 41 is formed with an area for storing various data necessary for the control unit 20 to execute processing, a reference coordinate storage unit 43 for storing reference coordinates (XYZ coordinates), and the LED group 7. And a relative position storage unit 47 for storing the relationship between the relative positions.

ここで、基準座標(XYZ座標)について説明する。基準座標(XYZ座標)は、カメラ装置2(2a、2b)とともに移動する3次元座標系であり、原点及び各座標軸の方向を任意に定めることができるが、カメラ2bからカメラ2aへの方向をX軸方向とし、X軸方向に垂直かつ天井に垂直で下向き方向をZ軸方向とし、X軸方向に垂直かつ天井に水平で右向き方向をY軸方向とするように定義し、原点をカメラ2aとカメラ2bとの中点として定義するようにしてある。   Here, the reference coordinates (XYZ coordinates) will be described. The reference coordinates (XYZ coordinates) are a three-dimensional coordinate system that moves together with the camera device 2 (2a, 2b). The origin and the direction of each coordinate axis can be arbitrarily determined, but the direction from the camera 2b to the camera 2a can be determined. The X-axis direction is defined to be perpendicular to the X-axis direction and perpendicular to the ceiling and the downward direction is the Z-axis direction, perpendicular to the X-axis direction and horizontal to the ceiling, and the rightward direction is the Y-axis direction. And the camera 2b are defined as midpoints.

したがって、基準座標記憶部43は、カメラ装置2に対して固定された座標系である基準座標(XYZ座標)の定義に必要な情報である原点位置情報、X、Y、Z軸方向に関する情報を記憶する。具体的には、予め、移動体30に、X、Y、Z軸方向を格子方向とした正方格子状の基準座標スケールを配置して画像データを収得し、画像データに対し、画像データ中の格子点に基づいて、原点位置及びX、Y、Z軸方向の情報を関連付けて記憶する。これにより、記憶された画像データと、LEDを撮影したときの画像データとを比較することにより、当該画像データに映し出されたLEDの座標位置が求められることになる。   Therefore, the reference coordinate storage unit 43 stores origin position information, which is information necessary for defining the reference coordinates (XYZ coordinates), which is a coordinate system fixed to the camera device 2, and information regarding the X, Y, and Z axis directions. Remember. Specifically, a square grid-like reference coordinate scale with the X, Y, and Z axis directions as the grid directions is arranged in advance on the moving body 30 to acquire image data. Based on the lattice points, the origin position and information in the X, Y, and Z axis directions are stored in association with each other. Thus, by comparing the stored image data with the image data when the LED is photographed, the coordinate position of the LED displayed in the image data is obtained.

モーショントラッカ駆動部28は、LED群7を点灯する指令信号を出力するとともに、カメラ装置2(2a、2b)でLED群7を検出し、画像データによる位置情報を取得する制御を行うものである。   The motion tracker drive unit 28 outputs a command signal for turning on the LED group 7, and detects the LED group 7 by the camera device 2 (2a, 2b), and performs control to acquire position information based on image data. .

頭部情報算出部22は、少なくとも3つのLEDの位置を算出して、カメラ装置2(XYZ座標)に対するパイロット3の頭部角度(Θa、Φa、Ψa)を含む相対頭部情報を算出する制御を行うものである。
例えば、カメラ装置2(2a、2b)に対するLEDa、LEDb、LEDcの座標位置(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)を算出し、これら3つの座標位置に基づいて、相対位置記憶部47に記憶されているLEDa、LEDb、LEDcの相対位置の関係を参照することにより、LED群7が固定された頭部装着型表示装置ヘルメット10の現在角度を決定する。
The head information calculation unit 22 calculates the positions of at least three LEDs and calculates relative head information including the head angle (Θa, Φa, ψa) of the pilot 3 with respect to the camera device 2 (XYZ coordinates). Is to do.
For example, the coordinate positions (X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3) of LEDa, LEDb, LEDc with respect to the camera device 2 (2a, 2b) are calculated, and these three coordinates are calculated. Based on the position, the current angle of the head-mounted display device helmet 10 to which the LED group 7 is fixed is determined by referring to the relationship between the relative positions of the LEDs a, b, and c stored in the relative position storage unit 47. decide.

相対位置算出部23は、モーショントラッカ駆動部28に指令信号を出力することにより、画像データによるLED群7の位置情報を取得させることで、LED群7のそれぞれの相対位置の関係を算出して、相対位置記憶部47に記憶させる制御を行うものである。
まず、第一段階として、頭部装着型表示装置付ヘルメット10を装着したパイロット3に特定方向(初期状態)を向くように指示することにより、図4、5に示すように、LEDa(A)、LEDb(B)、LEDc(C)、LEDd(D)を検出させることで、LEDa、LEDb、LEDc、LEDdのそれぞれの相対位置の関係を、後述する算出方法で算出する。なお、特定方向(初期状態)とは、LEDa(A)、LEDb(B)、LEDc(C)、LEDd(D)が必ず検出されるように設定されている。
次に、第二段階として、頭部装着型表示装置付ヘルメット10を装着したパイロット3に特定方向(初期状態)と異なる第二方向(第二状態)を向くように指示することにより、図6に示すように、LEDb(B)、LEDc(C)及びLEDd(D)と、LEDe(E)及びLEDf(F)を検出させることで、LEDa、LEDb、LEDc、LEDd、LEDe、LEDfのそれぞれの相対位置の関係を、後述する算出方法で算出する。なお、第二方向(第二状態)とは、LEDb(B)、LEDc(C)及びLEDd(D)と、LEDe(E)及びLEDf(F)が必ず検出されるように設定されている。このとき、LEDa、LEDb、LEDc、LEDd、LEDe、LEDfのそれぞれの相対位置の関係を相対位置記憶部47に記憶させる。
The relative position calculation unit 23 calculates the relationship between the relative positions of the LED groups 7 by outputting the command signal to the motion tracker driving unit 28 to acquire the position information of the LED groups 7 based on the image data. The control to be stored in the relative position storage unit 47 is performed.
First, as a first step, an instruction to be so as to face a specific direction (initial state) in the pilot 3 wearing the head-mounted display device with the helmet 10, as shown in FIG. 4, 5, LEDa (A 0 ), LEDb (B 0 ), LEDc (C 0 ), and LEDd (D 0 ) are detected, and the relationship between the relative positions of LEDa, LEDb, LEDc, and LEDd is calculated by a calculation method that will be described later. The specific direction (initial state) is set so that LEDa (A 0 ), LEDb (B 0 ), LEDc (C 0 ), and LEDd (D 0 ) are always detected.
Next, as a second step, by instructing the pilot 3 wearing the head-mounted display-equipped helmet 10 to point in a second direction (second state) different from the specific direction (initial state), FIG. As shown in FIG. 4, LEDb (B 1 ), LEDc (C 1 ), LEDd (D 1 ), LEDe (E 1 ), and LEDf (F 1 ) are detected to detect LEDa, LEDb, LEDc, LEDd, LEDe. The relationship between the relative positions of the LEDs f is calculated by a calculation method described later. The second direction (second state) means that LEDb (B 1 ), LEDc (C 1 ) and LEDd (D 1 ), LEDe (E 1 ) and LEDf (F 1 ) are always detected. Is set. At this time, the relative position storage unit 47 stores the relationship between the relative positions of LEDa, LEDb, LEDc, LEDd, LEDe, and LEDf.

映像表示部25は、相対頭部情報に基づいて、映像表示光を出射する制御を行うものである。これにより、パイロット3は、表示器による表示映像を視認することができるようになる。   The video display unit 25 performs control for emitting video display light based on the relative head information. As a result, the pilot 3 can visually recognize the display image displayed on the display.

(LED群7の相対位置の関係の算出方法)
ヘッドモーショントラッカ装置1により、LEDa、LEDb、LEDc、LEDd、LEDe、LEDfのそれぞれの相対位置の関係を算出する方法について説明する。図7は、ヘッドモーショントラッカ装置1によるLEDa、LEDb、LEDc、LEDd、LEDe、LEDfのそれぞれの相対位置の関係を算出する方法について説明するためのフローチャートである。
(Calculation method of relative position relationship of LED group 7)
A method of calculating the relationship between the relative positions of LEDa, LEDb, LEDc, LEDd, LEDe, and LEDf by the head motion tracker device 1 will be described. FIG. 7 is a flowchart for explaining a method of calculating the relationship between the relative positions of LEDa, LEDb, LEDc, LEDd, LEDe, and LEDf by the head motion tracker device 1.

まず、ステップS101の処理において、頭部装着型表示装置付ヘルメット10を装着したパイロット3に特定方向(初期状態)を向くように指示する。このとき、LEDa、LEDb、LEDc及びLEDdの4つのLEDが、カメラ装置2で検出可能になるが、LEDe及びLEDfの2つのLEDは、カメラ装置2で検出不能になる。   First, in the process of step S101, the pilot 3 wearing the helmet 10 with a head-mounted display device is instructed to face a specific direction (initial state). At this time, the four LEDs LEDa, LEDb, LEDc, and LEDd can be detected by the camera device 2, but the two LEDs LEDe and LEDf cannot be detected by the camera device 2.

次に、ステップS102の処理において、モーショントラッカ駆動部28は、カメラ装置2でLEDa、LEDb、LEDc及びLEDdの4つのLEDを第一段階として検出する。これにより、基準座標(XYZ座標)でのLEDa(A)、LEDb(B)、LEDc(C)、LEDd(D)の座標位置が、それぞれ(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)、(X4、Y4、Z4)が算出される。 Next, in the process of step S <b> 102, the motion tracker driving unit 28 detects four LEDs of LEDa, LEDb, LEDc, and LEDd as the first stage in the camera device 2. As a result, the coordinate positions of LEDa (A 0 ), LEDb (B 0 ), LEDc (C 0 ), and LEDd (D 0 ) at the reference coordinates (XYZ coordinates) are (X1, Y1, Z1), (X2), respectively. , Y2, Z2), (X3, Y3, Z3), (X4, Y4, Z4) are calculated.

次に、ステップS103の処理において、相対位置算出部23は、頭部装着型表示装置ヘルメット10の現在角度を基準座標(XYZ座標)で表現するために、ヘルメット座標(xyz座標)を決定する。
具体的には、式(1)〜(3)を用いて、頭部装着型表示装置ヘルメット10上のLEDa(X1、Y1、Z1)を、ヘルメット基準点と定め、さらにヘルメット基準点を始点とする一方向(LEDa(X1、Y1、Z1)からLEDb(X2、Y2、Z2)への方向)をヘルメットx軸方向exと定め、ヘルメット基準点を始点とする一方向(x軸方向と垂直な方向で、かつ、x軸方向とLEDa(X1、Y1、Z1)からLEDc(X3、Y3、Z3)への方向と同一の平面内)を、ヘルメットy軸方向eyと定め、ヘルメット基準点を始点とする一方向(x軸方向とy軸方向と垂直な方向)を、ヘルメットz軸方向ezと定める(図2及び図4参照)。これにより、頭部装着型表示装置ヘルメット10の現在角度は、基準座標(XYZ座標)のX軸、Y軸、Z軸に対するヘルメット座標(xyz座標)のx軸、y軸、z軸の角度(Θ、Φ、Ψ)で表現することができるようになる。
なお、ex、ey、ezはベクトルを表し、A、A等もベクトルを表す。
Next, in the process of step S103, the relative position calculation unit 23 determines helmet coordinates (xyz coordinates) in order to express the current angle of the head-mounted display device helmet 10 with reference coordinates (XYZ coordinates).
Specifically, using equations (1) to (3), LEDa (X1, Y1, Z1) on the head-mounted display device helmet 10 is defined as a helmet reference point, and the helmet reference point is defined as a starting point. One direction (direction from LEDa (X1, Y1, Z1) to LEDb (X2, Y2, Z2)) is defined as the helmet x-axis direction ex, and one direction starting from the helmet reference point (perpendicular to the x-axis direction) Direction and in the same plane as the direction of the x-axis direction and LEDa (X1, Y1, Z1) to LEDc (X3, Y3, Z3) as the helmet y-axis direction ey, the helmet reference point is the starting point One direction (direction perpendicular to the x-axis direction and the y-axis direction) is defined as the helmet z-axis direction ez (see FIGS. 2 and 4). As a result, the current angle of the head-mounted display device helmet 10 is the angle of the x-axis, y-axis, and z-axis of the helmet coordinates (xyz coordinates) with respect to the X-axis, Y-axis, and Z-axis of the reference coordinates (XYZ coordinates) ( (Θ, Φ, ψ).
Note that ex, ey, and ez represent vectors, and A 0 B 0 , A 0 C 0, and the like also represent vectors.


次に、ステップS104の処理において、相対位置算出部23は、LEDaと、LEDb及びLEDcとの相対位置を算出して、相対位置記憶部47に記憶させる。
具体的には、式(4)、(5)を用いて、LEDa(A)を基準とするヘルメット座標(xyz座標)でのLEDb(B)の座標位置(α、0、0)及びLEDcの座標位置(α、β、0)を算出する(図4参照)。
=αex・・・・・・・(4)
=αex+βey・・・(5)
Next, in the process of step S <b> 104, the relative position calculation unit 23 calculates the relative positions of LEDa, LEDb, and LEDc, and stores them in the relative position storage unit 47.
Specifically, using Equations (4) and (5), the coordinate position (α b , 0, 0) of LEDb (B 0 ) in helmet coordinates (xyz coordinates) based on LEDa (A 0 ). And the coordinate position (α c , β c , 0) of LEDc is calculated (see FIG. 4).
A 0 B 0 = α b ex (4)
A 0 C 0 = α c ex + β c ey (5)

次に、ステップS105の処理において、相対位置算出部23は、LEDaと、LEDdとの相対位置を算出して、相対位置記憶部47に記憶させる。
具体的には、式(6)を用いて、ヘルメット座標(xyz座標)でのLEDd(D)の座標位置(α、β、γ)を算出する(図5参照)。
=αex+βey+γez・・・(6)
Next, in the process of step S <b> 105, the relative position calculation unit 23 calculates the relative position between LEDa and LEDd and stores the calculated relative position in the relative position storage unit 47.
Specifically, the coordinate position (α d , β d , γ d ) of LEDd (D 0 ) in helmet coordinates (xyz coordinates) is calculated using Equation (6) (see FIG. 5).
A 0 D 0 = α d ex + β d ey + γ d ez (6)

次に、ステップS106の処理において、頭部装着型表示装置付ヘルメット10を装着したパイロット3に第二方向(第二状態)を向くように指示する。このとき、LEDb、LEDc、LEDd、LEDe及びLEDfの5つのLEDが、カメラ装置2で検出可能になるが、LEDaは、カメラ装置2で検出不能になる。   Next, in the process of step S106, the pilot 3 wearing the head mounted display-equipped helmet 10 is instructed to face the second direction (second state). At this time, five LEDs, LEDb, LEDc, LEDd, LEDe, and LEDf, can be detected by the camera device 2, but LEDa cannot be detected by the camera device 2.

次に、ステップS107の処理において、モーショントラッカ駆動部28は、カメラ装置2でLEDb、LEDc、LEDd、LEDe及びLEDfの5つのLEDを第二段階として検出する。これにより、基準座標(XYZ座標)でのLEDb(B)、LEDc(C)、LEDd(D)、LEDe(E)、LEDf(F)の座標位置が、それぞれ(X2、Y2、Z2)、(X3、Y3、Z3)、(X4、Y4、Z4)、(X5、Y5、Z5)、(X6、Y6、Z6)が算出される。 Next, in the process of step S107, the motion tracker driving unit 28 detects five LEDs, LEDb, LEDc, LEDd, LEDe, and LEDf, in the camera device 2 as the second stage. Thus, LEDb of the reference coordinates (XYZ coordinate) (B 1), LEDc ( C 1), LEDd (D 1), LEDe (E 1), the coordinate position of LEDf (F 1), respectively (X2, Y2 , Z2), (X3, Y3, Z3), (X4, Y4, Z4), (X5, Y5, Z5), (X6, Y6, Z6).

次に、ステップS108の処理において、相対位置算出部23は、LEDaと、LEDe及びLEDfとの相対位置を算出して、相対位置記憶部47に記憶させる。
具体的には、下述する式(7)〜(10)を用いて、ヘルメット座標(xyz座標)でのLEDe(E)の座標位置(α、β、γ)を算出する(図4及び図6参照)。
まず、LEDaが検出されていないため、初期状態でも検出されたLEDb、LEDc及びLEDdと、LEDeとの相対関係を式(7)で表現する。
=α´B+β´B+γ´(B×B)・・・(7)
式(7)により、α´、β´、γ´が求まる。また、LEDb、LEDc及びLEDdと、LEDeとの相対関係は一定であるので、式(7)が成立すれば、初期状態のときに式(8)が成立する。
=α´B+β´B+γ´(B×B)・・・(8)
式(8)を変形すると、
−A=α´B+β´B+γ´(B×B
=α´B+β´B+γ´(B×B)+A
となる。このとき、LEDa(A)、LEDb(B)、LEDc(C)、LEDd(D)の座標位置は、ステップS102の処理ですでに算出されているので、基準座標(XYZ座標)でのLEDe(E)の座標位置が求まる。ここで、
=αex+βey+γez・・・・・・・・・・・・・・・(9)
である。よって、ex、ey、ezは、ステップS103の処理ですでに設定されているので、式(8)と式(9)とを比較することにより、ヘルメット座標(xyz座標)でのLEDe(E)の座標位置(α、β、γ)が求まる。また、ヘルメット座標(xyz座標)でのLEDf(F)の座標位置(α、β、γ)についても、同様に算出する。
Next, in the process of step S <b> 108, the relative position calculation unit 23 calculates the relative positions of LEDa, LEDe, and LEDf, and stores them in the relative position storage unit 47.
Specifically, the coordinate positions (α e , β e , γ e ) of LEDe (E 1 ) in helmet coordinates (xyz coordinates) are calculated using the equations (7) to (10) described below ( 4 and 6).
First, since LEDa is not detected, the relative relationship between LEDe, LEDb, LEDc, and LEDd detected even in the initial state is expressed by Expression (7).
B 1 E 1 = α e'B 1 C 1 + β e'B 1 D 1 + γ e '(B 1 C 1 × B 1 D 1) ··· (7)
Α e ′, β e ′, and γ e ′ are obtained from the equation (7). Further, since the relative relationship between LEDb, LEDc, LEDd, and LEDe is constant, if equation (7) is established, equation (8) is established in the initial state.
B 0 E 0 = α e'B 0 C 0 + β e'B 0 D 0 + γ e '(B 0 C 0 × B 0 D 0) ··· (8)
When equation (8) is transformed,
A 0 E 0 -A 0 B 0 = α e'B 0 C 0 + β e'B 0 D 0 + γ e '(B 0 C 0 × B 0 D 0)
A 0 E 0 = α e'B 0 C 0 + β e'B 0 D 0 + γ e '(B 0 C 0 × B 0 D 0) + A 0 B 0
It becomes. At this time, since the coordinate positions of LEDa (A 0 ), LEDb (B 0 ), LEDc (C 0 ), and LEDd (D 0 ) have already been calculated in the process of step S102, reference coordinates (XYZ coordinates) The coordinate position of LEDe (E 0 ) at is obtained. here,
A 0 E 0 = α e ex + β e ey + γ e ez (9)
It is. Therefore, since ex, ey, and ez have already been set in the process of step S103, the LEDe (E 0 in the helmet coordinates (xyz coordinates) is compared by comparing the expressions (8) and (9). ) Coordinate position (α e , β e , γ e ) is obtained. Further, the coordinate positions (α f , β f , γ f ) of the LED f (F 0 ) in the helmet coordinates (xyz coordinates) are similarly calculated.

次に、ステップS108の処理が終了したときには、本フローチャートを終了させる。
なお、頭部装着型表示装置付ヘルメットの全体にわたって、さらに多数のLEDを設置した場合に、ステップS108の処理が終了したときに、まだカメラ装置で全てのLEDの検出ができなくて、相対位置算出部により全てのLEDの相対位置が算出されていなければ、ステップS107及びS108の処理を繰り返せばよい。
Next, when the process of step S108 is completed, this flowchart is ended.
When a larger number of LEDs are installed throughout the head mounted display-equipped helmet, when the processing of step S108 is completed, all the LEDs cannot be detected by the camera device, and the relative position If the relative positions of all the LEDs are not calculated by the calculation unit, the processes in steps S107 and S108 may be repeated.

(ヘッドモーショントラッカ装置1の動作)
次に、ヘッドモーショントラッカ装置1により頭部角度を測定する測定動作について説明する。図8は、ヘッドモーショントラッカ装置1による測定動作について説明するためのフローチャートである。
(Operation of the head motion tracker device 1)
Next, a measurement operation for measuring the head angle by the head motion tracker device 1 will be described. FIG. 8 is a flowchart for explaining the measurement operation by the head motion tracker device 1.

まず、ステップS201の処理において、時間(t)にtn+1と更新するように、tn+1と時間記憶部44に記憶させる。
次に、ステップS202の処理において、モーショントラッカ駆動部28は、カメラ装置2でLED群7を検出する。
First, in the process of step S201, t n + 1 and the time storage unit 44 are stored so that t n + 1 is updated at time (t n ).
Next, in the process of step S <b> 202, the motion tracker driving unit 28 detects the LED group 7 with the camera device 2.

次に、ステップS203の処理において、頭部情報算出部22は、カメラ装置2でLEDaとLEDbとLEDcとが検出されたか否かを判定する。
LEDaとLEDbとLEDcとが検出されていないと判定したときには、ステップS204の処理において、頭部情報算出部22は、検出されたLEDa、LEDb、LEDc、LEDd、LEDe及びLEDfのうちの少なくとも3つの座標位置に基づいて、LEDa、LEDb、LEDcの座標位置(X1´、Y1´、Z1´)、(X2´、Y2´、Z2´)、(X3´、Y3´、Z3´)を算出する。このとき、相対位置記憶部47に記憶されているLED郡7の相対位置のデータを参照することにより、LEDa、LEDb、LEDcの座標位置を以下のように算出する。
Next, in the process of step S <b> 203, the head information calculation unit 22 determines whether LEDa, LEDb, and LEDc are detected by the camera device 2.
When it is determined that LEDa, LEDb, and LEDc are not detected, in step S204, the head information calculation unit 22 determines that at least three of the detected LEDsa, LEDb, LEDc, LEDd, LEDe, and LEDf are detected. Based on the coordinate positions, the coordinate positions (X1 ′, Y1 ′, Z1 ′), (X2 ′, Y2 ′, Z2 ′), (X3 ′, Y3 ′, Z3 ′) of LEDa, LEDb, LEDc are calculated. At this time, the coordinate position of LEDa, LEDb, and LEDc is calculated as follows by referring to the data on the relative position of the LED group 7 stored in the relative position storage unit 47.

ここでは、一例として、LEDd、LEDe及びLEDfの3つのLEDが検出された場合について説明する。
まず、基準座標(XYZ座標)で、検出されたLEDd、LEDe、LEDfの座標位置(X4´、Y4´、Z4´)、(X5´、Y5´、Z5´)、(X6´、Y6´、Z6´)を算出する。
また、相対位置記憶部47に、ヘルメット座標(xyz座標)でのLEDd、LEDe、LEDfの座標位置(α、β、γ)、(α、β、γ)、(α、β、γ)が記憶されている。
つまり、式(10)〜(13)が成立する。
OA´=OD´−A´D´=OD´−(αex´+βey´+γez´)・・(10)
OA´=OE´−A´E´=OE´−(αex´+βey´+γez´)・・(11)
OA´=OF´−A´F´=OF´−(αex´+βey´+γey´)・・(12)
ez´=ex´×ey´・・・・・・・・・・・・・・・・・・・・・・・・・(13)
式(10)〜(13)を計算することにより、基準座標(XYZ座標)でのLEDaの座標位置(X1´、Y1´、Z1´)が求まる。このとき、ex´、ey´及びez´も求まる。
Here, as an example, a case where three LEDs of LEDd, LEDe, and LEDf are detected will be described.
First, the coordinate positions (X4 ', Y4', Z4 '), (X5', Y5 ', Z5'), (X6 ', Y6', Z6 ′) is calculated.
Further, the relative position storage unit 47 stores the coordinate positions (α d , β d , γ d ), (α e , β e , γ e ), (α f ) of the helmet coordinates (xyz coordinates) in LEDd, LEDe, LEDf. , Β f , γ f ) are stored.
That is, the expressions (10) to (13) are established.
OA ′ = OD′−A′D ′ = OD ′ − (α d ex ′ + β d ey ′ + γ d ez ′) (10)
OA ′ = OE′−A′E ′ = OE ′ − (α e ex ′ + β e ey ′ + γ e ez ′) (11)
OA ′ = OF′−A′F ′ = OF ′ − (α f ex ′ + β f ey ′ + γ f ey ′) (12)
ez ′ = ex ′ × ey ′ (13)
By calculating Expressions (10) to (13), the coordinate position (X1 ′, Y1 ′, Z1 ′) of LEDa at the reference coordinates (XYZ coordinates) is obtained. At this time, ex ′, ey ′, and ez ′ are also obtained.

また、相対位置記憶部47に、ヘルメット座標(xyz座標)でのLEDb、LEDcの座標位置(α、0、0)、(α、β、0)が記憶され、式(14)、(15)が成立する。
OB´=OA´+A´B´=OA´+αex´・・・・・・・・(14)
OC´=OA´+A´C´=OA´+αex´+βey´・・・(15)
式(14)、(15)を計算することにより、基準座標(XYZ座標)でのLEDbの座標位置(X2´、Y2´、Z2´)及びLEDcの座標位置(X3´、Y3´、Z3´)が求まる。
Further, the relative position storage unit 47 stores the coordinate positions (α b , 0, 0), (α c , β c , 0) of the LEDb and LEDc in the helmet coordinates (xyz coordinates), and the equation (14), (15) is established.
OB ′ = OA ′ + A′B ′ = OA ′ + α b ex ′ (14)
OC ′ = OA ′ + A′C ′ = OA ′ + α c ex ′ + β c ey ′ (15)
By calculating Expressions (14) and (15), the coordinate position (X2 ′, Y2 ′, Z2 ′) of LEDb and the coordinate position (X3 ′, Y3 ′, Z3 ′) of LEDc at the reference coordinates (XYZ coordinates) are calculated. ) Is obtained.

一方、LEDaとLEDbとLEDcとが検出されたと判定したとき、又は、ステップS204の処理が終了したときには、ステップS205の処理において、頭部情報算出部22は、LEDa、LEDb、LEDcの座標位置(X1´、Y1´、Z1´)、(X2´、Y2´、Z2´)、(X3´、Y3´、Z3´)に基づいて、基準座標(XYZ座標)に対するパイロット3の頭部角度(Θa、Φa、Ψa)を相対頭部情報として算出する。   On the other hand, when it is determined that LEDa, LEDb, and LEDc have been detected, or when the process of step S204 is completed, in step S205, the head information calculation unit 22 determines the coordinate positions of LEDa, LEDb, and LEDc ( X1 ′, Y1 ′, Z1 ′), (X2 ′, Y2 ′, Z2 ′), (X3 ′, Y3 ′, Z3 ′), the pilot 3 head angle (Θa) with respect to the reference coordinates (XYZ coordinates) , Φa, Ψa) are calculated as relative head information.

次に、ステップS206の処理において、頭部角度(Θa、Φa、Ψa)を含む相対頭部情報を出力する。つまり、飛行体30に設定された基準座標に対する頭部角度が測定される。   Next, in the process of step S206, relative head information including head angles (Θa, Φa, Ψa) is output. That is, the head angle with respect to the reference coordinates set for the flying object 30 is measured.

次に、ステップS207の処理において、飛行体30が移動しているか否かを判定する。飛行体30が移動していないと判定したときには、本フローチャートを終了させる。
一方、飛行体が移動していると判定したときには、ステップS201の処理に戻る。つまり、飛行体30が移動していないと判定されるときまで、ステップS201〜ステップS206の処理は繰り返される。
Next, in step S207, it is determined whether or not the flying object 30 is moving. When it is determined that the flying object 30 is not moving, this flowchart is ended.
On the other hand, when it determines with the flying body moving, it returns to the process of step S201. That is, the processes in steps S201 to S206 are repeated until it is determined that the flying object 30 is not moving.

以上のように、ヘッドモーショントラッカ装置1によれば、相対位置算出部23は、カメラ装置2でLED群7を検出させることにより、各LEDのそれぞれの相対位置の関係を算出する。つまり、LEDが設置された頭部装着型表示装置付ヘルメット10をパイロット3が装着するときに、頭部装着型表示装置付ヘルメット10の顎紐を締め付けることにより、LEDが変形しても、変形後である使用時のLEDが発光している中心を実際に検出することで、相対位置記憶部47に使用時の各LEDのそれぞれの相対位置の関係を記憶させることができる。これにより、頭部情報算出部22は、精度よく、飛行体30に設定された基準座標に対するパイロット3の頭部角度を含む相対頭部情報を算出することができる。   As described above, according to the head motion tracker device 1, the relative position calculation unit 23 calculates the relationship between the relative positions of the LEDs by causing the camera device 2 to detect the LED group 7. That is, when the pilot 3 wears the helmet 10 with a head-mounted display device on which the LED is installed, even if the LED is deformed by tightening the chin strap of the helmet 10 with the head-mounted display device, the deformation The relative position storage unit 47 can store the relationship between the relative positions of the LEDs in use by actually detecting the center at which the LED in use at a later time emits light. Thereby, the head information calculation unit 22 can calculate relative head information including the head angle of the pilot 3 with respect to the reference coordinates set in the flying object 30 with high accuracy.

さらに、カメラ装置2でLED群7を検出し続けることが可能なように、頭部装着型表示装置付ヘルメット10の全体にわたって多数のLEDを設置しているが、全てのLEDを一度にカメラ装置2で検出ができなくても、第一段階と第二段階とを実行することにより、全てのLEDのそれぞれの相対位置の関係を算出することができる。よって、全てのLEDにおいて、実際に使用時のLEDが発光している中心を検出することで、相対位置記憶部47に使用時の各LEDのそれぞれの相対位置の関係を記憶させることができる。   Furthermore, a large number of LEDs are installed throughout the helmet 10 with a head-mounted display device so that the camera device 2 can continue to detect the LED group 7. Even if the detection cannot be performed in 2, the relationship between the relative positions of all the LEDs can be calculated by executing the first stage and the second stage. Therefore, in all the LEDs, by detecting the center at which the LED in actual use emits light, the relative position storage unit 47 can store the relationship of the relative position of each LED in use.

なお、ヘッドモーショントラッカ装置は、相対頭部情報として頭部位置も算出するような構成としてもよい。   The head motion tracker device may be configured to calculate the head position as the relative head information.

本発明は、搭乗員等の飛行体に設定された基準座標に対する頭部角度を測定するためのヘッドモーショントラッカ装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a head motion tracker device for measuring a head angle with respect to reference coordinates set on a flying object such as a crew member.

本発明の一実施形態であるヘッドモーショントラッカ装置の概略構成を示す図である。It is a figure which shows schematic structure of the head motion tracker apparatus which is one Embodiment of this invention. 図1に示す頭部装着型表示装置付ヘルメットの平面図である。It is a top view of the helmet with a head-mounted display device shown in FIG. 基準座標(XYZ座標)を説明するための図である。It is a figure for demonstrating a reference | standard coordinate (XYZ coordinate). LED群7の相対位置の関係の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the relationship of the relative position of LED group. LED群7の相対位置の関係の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the relationship of the relative position of LED group. LED群7の相対位置の関係の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the relationship of the relative position of LED group. ヘッドモーショントラッカ装置1による6つのLED群7のそれぞれの相対位置の関係を算出する方法について説明するためのフローチャートである。4 is a flowchart for explaining a method of calculating a relationship between relative positions of six LED groups 7 by the head motion tracker device 1. 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。It is a flowchart for demonstrating the measurement operation | movement by the head motion tracker apparatus which is one Embodiment of this invention. LEDの概略構成を示す断面図である。It is sectional drawing which shows schematic structure of LED.

符号の説明Explanation of symbols

1 ヘッドモーショントラッカ装置
2 カメラ装置
3 パイロット
7 LED群
10 頭部装着型表示装置付ヘルメット
22 頭部情報算出部
23 相対位置算出部
28 モーショントラッカ駆動部
30 飛行体
47 相対位置記憶部
DESCRIPTION OF SYMBOLS 1 Head motion tracker apparatus 2 Camera apparatus 3 Pilot 7 LED group 10 Helmet with head mounted display 22 Head information calculation part 23 Relative position calculation part 28 Motion tracker drive part 30 Aircraft 47 Relative position storage part

Claims (2)

搭乗者の頭部に装着され、少なくとも3つの光学マーカーからなる光学マーカー群と、移動体に取り付けられ、前記光学マーカーを検出するカメラ装置とを備える光学方式モーショントラッカと、
前記各光学マーカーのそれぞれの相対位置の関係を記憶する相対位置記憶部と、
前記光学方式モーショントラッカ及び相対位置記憶部により、前記移動体に設定された基準座標に対する搭乗者の頭部角度を含む相対頭部情報を算出する頭部情報算出部とを備えたヘッドモーショントラッカ装置であって、
前記カメラ装置で光学マーカーを検出させることにより、前記各光学マーカーのそれぞれの相対位置の関係を算出する相対位置算出部を備えることを特徴とするヘッドモーショントラッカ装置。
An optical motion tracker that is mounted on a head of a passenger and includes an optical marker group including at least three optical markers, and a camera device that is attached to a moving body and detects the optical marker;
A relative position storage unit for storing the relationship between the relative positions of the optical markers;
A head motion tracker device comprising: a head information calculation unit that calculates relative head information including a head angle of a passenger with respect to a reference coordinate set in the moving body by the optical motion tracker and a relative position storage unit Because
A head motion tracker device comprising: a relative position calculation unit that calculates a relationship between relative positions of the optical markers by detecting the optical markers with the camera device.
前記光学マーカーは、少なくとも5つの光学マーカーからなり、
前記相対位置算出部は、少なくとも4つの光学マーカーを検出させることにより、少なくとも4つの各光学マーカーのそれぞれの相対位置の関係を算出する第一段階と、
少なくとも4つの光学マーカーのうちの3つの光学マーカーと、少なくとも4つの光学マーカー以外の光学マーカーを検出させることにより、各光学マーカーのそれぞれの相対位置の関係を算出する第二段階とを実行することを特徴とする請求項1に記載のヘッドモーショントラッカ装置。
The optical marker comprises at least five optical markers,
The relative position calculation unit calculates a relationship between the relative positions of at least four optical markers by detecting at least four optical markers; and
Performing three of the at least four optical markers and a second step of calculating a relative positional relationship of each of the optical markers by detecting optical markers other than the at least four optical markers. The head motion tracker device according to claim 1.
JP2006239813A 2006-09-05 2006-09-05 Head motion tracker device Active JP4967546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006239813A JP4967546B2 (en) 2006-09-05 2006-09-05 Head motion tracker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006239813A JP4967546B2 (en) 2006-09-05 2006-09-05 Head motion tracker device

Publications (2)

Publication Number Publication Date
JP2008065416A true JP2008065416A (en) 2008-03-21
JP4967546B2 JP4967546B2 (en) 2012-07-04

Family

ID=39288109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006239813A Active JP4967546B2 (en) 2006-09-05 2006-09-05 Head motion tracker device

Country Status (1)

Country Link
JP (1) JP4967546B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009287933A (en) * 2008-05-27 2009-12-10 Shimadzu Corp Motion tracker device
JP2010038847A (en) * 2008-08-08 2010-02-18 Shimadzu Corp Motion tracker system and coordinate system setting method therefor
JP2014095557A (en) * 2012-11-07 2014-05-22 Shimadzu Corp Motion tracker device
JP2017142813A (en) * 2014-01-06 2017-08-17 オキュラス ブイアール,エルエルシー Calibration of virtual reality system
KR101901483B1 (en) * 2012-01-17 2018-09-21 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 System and method for measuring tracker system accuracy

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03108722U (en) * 1990-02-23 1991-11-08
JPH0642920A (en) * 1992-07-27 1994-02-18 Mitsubishi Heavy Ind Ltd Apparatus for measuring three-dimensional position
JPH1163927A (en) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd Head position and posture measuring device, and operation monitoring device
JP2000353252A (en) * 1999-06-14 2000-12-19 Nippon Telegr & Teleph Corp <Ntt> Video superimposing method, device therefor and recording medium for recording video superimpose program
JP2004280156A (en) * 2003-03-12 2004-10-07 Mazda Motor Corp Image processing method, simulation device, program, and recording medium
JP2004361222A (en) * 2003-06-04 2004-12-24 Mitsubishi Electric Corp System and method for measuring three-dimensional position
JP2005265481A (en) * 2004-03-16 2005-09-29 Hiroshi Arisawa Marker, motion capture, and setting method of motion capture

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03108722U (en) * 1990-02-23 1991-11-08
JPH0642920A (en) * 1992-07-27 1994-02-18 Mitsubishi Heavy Ind Ltd Apparatus for measuring three-dimensional position
JPH1163927A (en) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd Head position and posture measuring device, and operation monitoring device
JP2000353252A (en) * 1999-06-14 2000-12-19 Nippon Telegr & Teleph Corp <Ntt> Video superimposing method, device therefor and recording medium for recording video superimpose program
JP2004280156A (en) * 2003-03-12 2004-10-07 Mazda Motor Corp Image processing method, simulation device, program, and recording medium
JP2004361222A (en) * 2003-06-04 2004-12-24 Mitsubishi Electric Corp System and method for measuring three-dimensional position
JP2005265481A (en) * 2004-03-16 2005-09-29 Hiroshi Arisawa Marker, motion capture, and setting method of motion capture

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009287933A (en) * 2008-05-27 2009-12-10 Shimadzu Corp Motion tracker device
JP2010038847A (en) * 2008-08-08 2010-02-18 Shimadzu Corp Motion tracker system and coordinate system setting method therefor
KR101901483B1 (en) * 2012-01-17 2018-09-21 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 System and method for measuring tracker system accuracy
JP2014095557A (en) * 2012-11-07 2014-05-22 Shimadzu Corp Motion tracker device
JP2017142813A (en) * 2014-01-06 2017-08-17 オキュラス ブイアール,エルエルシー Calibration of virtual reality system

Also Published As

Publication number Publication date
JP4967546B2 (en) 2012-07-04

Similar Documents

Publication Publication Date Title
JP5594944B2 (en) Motion tracker device
JP4961904B2 (en) Head motion tracker device
US10469722B2 (en) Spatially tiled structured light projector
US8259307B2 (en) Device for optically detecting position and/or orientation of objects and associated detection methods
JP4396564B2 (en) Object monitoring method and motion tracker using the same
JP5145832B2 (en) Head-mounted display device and head-mounted display device system
CN107896506A (en) Range sensor
JP4967546B2 (en) Head motion tracker device
KR20180057504A (en) Nte display systems and methods with optical trackers
JP4665872B2 (en) Head motion tracker device
JP2009085805A (en) Motion tracker apparatus
JP5292725B2 (en) Motion tracker device
JP5505363B2 (en) Motion tracker device
JP2007315775A (en) Head motion tracker system and its usage
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP4905311B2 (en) Head motion tracker system and calibration device used therefor
JP2014095557A (en) Motion tracker device
US10521926B1 (en) Tileable non-planar structured light patterns for wide field-of-view depth sensing
JP2009036517A (en) Head motion tracker device
JP4656017B2 (en) Head motion tracker device
JP4905321B2 (en) Head motion tracker device
JP4877138B2 (en) Head motion tracker device
JP4872768B2 (en) Head motion tracker device
JP4656016B2 (en) Motion tracker device
JP2007334762A (en) Head motion tracker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120208

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4967546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3