JP2009287933A - Motion tracker device - Google Patents

Motion tracker device Download PDF

Info

Publication number
JP2009287933A
JP2009287933A JP2008137703A JP2008137703A JP2009287933A JP 2009287933 A JP2009287933 A JP 2009287933A JP 2008137703 A JP2008137703 A JP 2008137703A JP 2008137703 A JP2008137703 A JP 2008137703A JP 2009287933 A JP2009287933 A JP 2009287933A
Authority
JP
Japan
Prior art keywords
image
optical marker
camera
determination result
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008137703A
Other languages
Japanese (ja)
Other versions
JP5262294B2 (en
Inventor
Kazuo Tawada
一穂 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2008137703A priority Critical patent/JP5262294B2/en
Publication of JP2009287933A publication Critical patent/JP2009287933A/en
Application granted granted Critical
Publication of JP5262294B2 publication Critical patent/JP5262294B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion tracker device for measuring the motion of a measuring object such as a helmet having a head-worn display device relative to a reference object such as a flight vehicle, even when the measuring object points to any direction relative to the reference object. <P>SOLUTION: This motion tracker device 1 includes: an optical marker 7 attached to the measuring object 10; a camera device 2 attached to the reference object 30; and a relative information calculation section 33 for calculating relative information. The motion tracker device 1 also includes: a reflector 5 that is attached to the reference object 30 and reflects light; and a determination result information creating section 34 for creating the determination result information of determination whether the optical marker 7 is directly photographed in a first image 15 and a second image 16 or is photographed via the reflector 5. An optical marker position information calculation section 32 calculates the optical marker position information, based on the determination result information, the first image 15, and the second image 16. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、光学方式のモーショントラッカ装置(以下、「MT装置」ともいう)に関し、例えば、ゲーム機や乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度(すなわち、ゲーム機や乗物等における装着者の頭部の現在位置及び現在角度)を測定するヘッドモーショントラッカ装置(以下、「HMT装置」ともいう)等に利用される。 The present invention relates to an optical motion tracker device (hereinafter also referred to as an “MT device”), for example, a current position and a current angle of a helmet with a head-mounted display device used in a game machine, a vehicle, etc. This is used for a head motion tracker device (hereinafter also referred to as “HMT device”) or the like that measures a wearer's head current position and current angle in a machine, a vehicle, or the like.

時々刻々と変動する物体(測定対象物)の現在位置や現在角度を正確に測定する技術は、様々な分野で利用されている。例えば、ゲーム機では、バーチャルリアリティ(VR)を実現するために、頭部装着型表示装置付ヘルメットを用いることにより、映像を表示することがなされている。このとき、頭部装着型表示装置付ヘルメットの現在位置や現在角度に合わせて、映像を変化させる必要がある。そこで、頭部装着型表示装置付ヘルメット(測定対象物)の現在位置や現在角度を測定するために、HMT装置が利用されている。
また、救難飛行艇による救難活動では、発見した救難目標を見失うことがないようにするため、頭部装着型表示装置付ヘルメットのバイザーに表示される照準画像と、バイザーを通して視認される救難目標とが対応した時にロックすることにより、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体(救難飛行艇)の緯度、経度、高度、姿勢に加えて、飛行体に対するパイロットの頭部の現在位置や現在角度を測定している。
Techniques for accurately measuring the current position and current angle of an object (measurement target) that changes every moment are used in various fields. For example, in a game machine, an image is displayed by using a helmet with a head-mounted display device in order to realize virtual reality (VR). At this time, it is necessary to change the image in accordance with the current position and the current angle of the head mounted display-equipped helmet. Therefore, an HMT device is used to measure the current position and current angle of the head-mounted helmet with a display device (measurement object).
Also, in the rescue operation by the rescue flying boat, in order not to lose sight of the found rescue target, the aiming image displayed on the visor of the helmet with a head-mounted display device, the rescue target visually recognized through the visor, The position of the locked rescue target is calculated by locking when responding. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude and attitude of the flying object (rescue flying boat), the current position and angle of the pilot's head relative to the flying object are measured. Yes.

このような頭部装着型表示装置付ヘルメットに利用されるHMT装置としては、光学的に頭部装着型表示装置付ヘルメットの現在位置や現在角度を測定するものが開示されている。図2は、頭部装着型表示装置付ヘルメットの一例の斜視図であり、図8は、図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す斜視図である。
具体的には、頭部装着型表示装置付ヘルメット10の外周面上に、光学マーカー群7として発光体であるLED(発光ダイオード)7a〜7kを互いに離隔するようにして複数箇所に取り付け、これらのLED7a〜7kの頭部装着型表示装置付ヘルメット(X’Y’Z’座標系)上における位置をHMT装置に予め記憶させておく。そして、これらのLED7a〜7kを、飛行体(基準対象物)の座席30aの上部に固定されたカメラ装置2(第一カメラ2a、第二カメラ2b)で同時に撮影することで、所謂、三角測量の原理により、現在の少なくとも3個のLEDとカメラ装置2との位置関係を測定している。これにより、頭部装着型表示装置付ヘルメット10上に固定された3点の位置(3個のLEDの位置)を特定することで、飛行体に対する頭部装着型表示装置付ヘルメット10の現在位置や現在角度を算出している。
ところで、上述したような光学方式のHMT装置で、3個のLEDとカメラ装置2との位置関係を測定するためには、3個のLEDをそれぞれ識別する必要がある。そこで、頭部装着型表示装置付ヘルメット10には、それぞれが識別可能なLED7a〜7kが取り付けられている。例えば、図2に示すように、頭部装着型表示装置付ヘルメット10の外周面上に、互いに異なる波長A、B、Cの赤外光を出射するLEDが取り付けられている。
As an HMT device used for such a helmet with a head-mounted display device, an apparatus that optically measures the current position and current angle of the helmet with a head-mounted display device is disclosed. FIG. 2 is a perspective view of an example of a helmet with a head-mounted display device, and FIG. 8 is a perspective view showing a positional relationship between the helmet with a head-mounted display device and the camera device shown in FIG.
Specifically, on the outer peripheral surface of the helmet 10 with a head-mounted display device, LEDs (light emitting diodes) 7a to 7k, which are light emitters, are attached to a plurality of locations as the optical marker group 7 so as to be separated from each other The positions of the LEDs 7a to 7k on the head mounted helmet with a display device (X′Y′Z ′ coordinate system) are stored in advance in the HMT device. The LEDs 7a to 7k are simultaneously photographed by the camera device 2 (first camera 2a, second camera 2b) fixed to the upper part of the seat 30a of the flying object (reference object), so-called triangulation. Based on the above principle, the positional relationship between the current at least three LEDs and the camera device 2 is measured. Thus, the current position of the head-mounted display-equipped helmet 10 with respect to the flying object is determined by specifying three positions (positions of three LEDs) fixed on the head-mounted display-equipped helmet 10. And the current angle is calculated.
By the way, in order to measure the positional relationship between the three LEDs and the camera device 2 using the optical HMT device as described above, it is necessary to identify the three LEDs. Therefore, LEDs 7a to 7k that can be individually identified are attached to the helmet 10 with a head-mounted display device. For example, as shown in FIG. 2, LEDs that emit infrared light having different wavelengths A, B, and C are attached to the outer peripheral surface of the helmet 10 with a head-mounted display device.

また、本出願人は、頭部装着型表示装置付ヘルメットに取り付けられた複数個のLEDをそれぞれ識別する際に、LEDに識別情報を持たせたり、1個1個順番に点灯させたりしなくても、LEDをそれぞれ識別することができるものを開示した(例えば、特許文献1参照)。
具体的には、まず、第一カメラ2aの撮影方向と第二カメラ2bの撮影方向とが定まった状態であるので、エピポーラ幾何学に基づく予測により、第一カメラ2aで撮影された第一画像と、第二カメラ2bで撮影された第二画像との間での共通のLED像の組を認識した。
そして、第一画像中に映し出された複数個のLED像と、第二画像中に映し出された複数個のLED像とのそれぞれの組の対応付けを行った後には、第一画像中に映し出されているLED像の位置により、第一カメラ2aからの方向角度αを算出するとともに、第二画像中に映し出されているLED像の位置により、第二カメラ2bからの方向角度βとを算出し、さらに第一カメラ2aと第二カメラ2bとの間の距離dを用いることで、所謂、三角測量の手法でカメラ装置2(XYZ座標系)に対するLEDの位置を算出する(図4参照)。なお、このとき算出されたLEDが、頭部装着型表示装置付ヘルメットに取り付けられたLEDのいずれに対応するかはまだ認識できない。
そこで、時間t1(直前)に各LEDの位置を記憶するとともに、記憶された各LEDの位置を中心とする一定の大きさの球状である各予想移動範囲を設定することにより、時間t2(現在)に予想移動範囲に存在するLEDを、時間t1に設定された予想移動範囲に対応するLEDと同一のものであると識別した。
これにより、カメラ装置2(XYZ座標系)に対する頭部装着型表示装置付ヘルメットの現在位置や現在角度を算出している。
特開2006−284442号公報
In addition, when identifying the plurality of LEDs attached to the head-mounted display-equipped helmet, the present applicant does not give identification information to the LEDs or turn on the LEDs one by one. However, the thing which can identify each LED was disclosed (for example, refer patent document 1).
Specifically, first, since the shooting direction of the first camera 2a and the shooting direction of the second camera 2b are determined, the first image shot by the first camera 2a by prediction based on epipolar geometry. And a common set of LED images between the second image captured by the second camera 2b.
Then, after associating each group of the plurality of LED images projected in the first image and the plurality of LED images projected in the second image, they are projected in the first image. The direction angle α from the first camera 2a is calculated from the position of the LED image being displayed, and the direction angle β from the second camera 2b is calculated from the position of the LED image displayed in the second image. Furthermore, by using the distance d between the first camera 2a and the second camera 2b, the position of the LED with respect to the camera device 2 (XYZ coordinate system) is calculated by a so-called triangulation method (see FIG. 4). . Note that it is not yet possible to recognize which LED calculated at this time corresponds to the LED attached to the head-mounted helmet with a display device.
Therefore, by storing the position of each LED at time t1 (immediately before) and setting each expected movement range that is a spherical shape of a certain size centered on the stored position of each LED, time t2 (currently ) In the expected movement range is identified as the same LED corresponding to the expected movement range set at time t1.
Thereby, the current position and the current angle of the helmet with a head mounted display device with respect to the camera device 2 (XYZ coordinate system) are calculated.
JP 2006-284442 A

ところで、上述したようなHMT装置で、カメラ装置2に対する頭部装着型表示装置付ヘルメット10の現在位置や現在角度を特定するためには、三角測量の原理を用いるため、第一カメラ2aにより撮影される撮影領域と第二カメラ2bにより撮影される撮影領域とが重なった撮影領域に、少なくとも同一の3個のLEDが存在していなければならなかった(図8参照)。そこで、図2に示すように、頭部装着型表示装置付ヘルメット10の外周面全面にLED7a〜7kが取り付けられている。 By the way, in order to specify the current position and the current angle of the head mounted helmet 10 with the display device with respect to the camera device 2 with the HMT device as described above, the triangulation principle is used, so the image is taken by the first camera 2a. At least three identical LEDs had to exist in the imaging region where the imaging region to be imaged and the imaging region imaged by the second camera 2b overlapped (see FIG. 8). Therefore, as shown in FIG. 2, LEDs 7 a to 7 k are attached to the entire outer peripheral surface of the helmet 10 with a head-mounted display device.

しかしながら、頭部装着型表示装置付ヘルメット10の外周面全面にLED7a〜7kが取り付けられていても、第一カメラ2aと第二カメラ2bとで、同一の3個のLEDを撮影することができないことがあった。例えば、図9に示すように、第二カメラ2bでは、頭部装着型表示装置付ヘルメット10を装着したパイロットが右側に体を寄せながら右側を見たときには、3個未満のLEDしか撮影することができなかった。すなわち、カメラ装置2に対する頭部装着型表示装置付ヘルメット10の現在位置や現在角度を算出することができなかった。
そこで、本発明は、飛行体等の基準対象物に対して、頭部装着型表示装置付ヘルメット等の測定対象物があらゆる方向に向いても、基準対象物に対する測定対象物の動きを測定することができるモーショントラッカ装置を提供することを目的とする。
However, even if the LEDs 7a to 7k are attached to the entire outer peripheral surface of the helmet 10 with a head-mounted display device, the same three LEDs cannot be photographed by the first camera 2a and the second camera 2b. There was a thing. For example, as shown in FIG. 9, in the second camera 2b, when a pilot wearing a helmet 10 with a head-mounted display device moves toward the right side and looks at the right side, only less than three LEDs are photographed. I could not. That is, the current position and current angle of the helmet 10 with a head mounted display device with respect to the camera device 2 could not be calculated.
Therefore, the present invention measures the movement of the measurement object relative to the reference object even when the measurement object such as the head-mounted display-equipped helmet is directed in any direction with respect to the reference object such as the flying object. An object of the present invention is to provide a motion tracker device that can perform the above-described operation.

上記課題を解決するためになされた本発明のモーショントラッカ装置は、測定対象物に取り付けられ、光を出射する3個以上の光学マーカーと、基準対象物に取り付けられ、かつ、前記光学マーカーを撮影することにより第一画像を作成する第一カメラと、前記第一カメラが撮影すると同時に第一カメラと異なる方向から光学マーカーを撮影することにより第二画像を作成する第二カメラとを有するカメラ装置と、前記カメラ装置に対する光学マーカーの現在位置である光学マーカー位置情報を算出する光学マーカー位置情報算出部と、前記光学マーカー位置情報に基づいて、前記基準対象物に対する測定対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、前記基準対象物に取り付けられ、かつ、前記光を反射する反射板と、前記第一画像及び第二画像において光学マーカーが直接撮影されたか、或いは、反射板を介して撮影されたかのいずれであるかを判定した判定結果情報を作成する判定結果情報作成部とを備え、前記光学マーカー位置情報算出部は、前記判定結果情報と第一画像及び第二画像とに基づいて、前記光学マーカー位置情報を算出するようにしている。 The motion tracker device of the present invention, which has been made to solve the above-mentioned problems, is attached to a measurement object, and is provided with three or more optical markers that emit light and attached to a reference object, and images the optical marker. And a second camera that creates a second image by photographing an optical marker from a different direction from the first camera at the same time as the first camera photographs. An optical marker position information calculation unit that calculates optical marker position information that is a current position of the optical marker with respect to the camera device, and based on the optical marker position information, a current position and a current position of the measurement object with respect to the reference object A motion tracker device comprising a relative information calculation unit for calculating relative information including an angle, wherein the reference object A determination result for determining whether the optical marker is directly photographed in the reflection plate attached and reflecting the light, and the first image and the second image, or photographed through the reflection plate. A determination result information creation unit that creates information, and the optical marker position information calculation unit calculates the optical marker position information based on the determination result information, the first image, and the second image. Yes.

ここで、「光学マーカーが出射する光」としては、赤外光や紫外光や可視光が挙げられる。
本発明のモーショントラッカ装置によれば、測定対象物に複数個の光学マーカーを互いに離隔するようにして取り付けるとともに、測定対象物における複数個の光学マーカーの位置を予め記憶させておく。また、基準対象物にカメラ装置と反射板とを取り付けるとともに、基準対象物におけるカメラ装置と反射板との相対的な位置関係を予め記憶させておく。
そして、カメラ装置がこれらの複数個の光学マーカーのうち少なくとも3個の光学マーカーを撮影することで、所謂、三角測量の原理により、少なくとも3個の光学マーカーとカメラ装置との位置関係を測定する。このとき、例えば、飛行体(基準対象物)の座席の上部に設置されたカメラ装置において、ヘルメット(測定対象物)を装着した装着者が正面を見ている際には、第一カメラと第二カメラとで3個の光学マーカーを直接撮影する。一方、ヘルメットを装着した装着者が右側に体を寄せながら右側を見ている際には、第一カメラでは3個の光学マーカーを直接撮影し、第二カメラでは3個の光学マーカーを直接撮影することができないが、3個の光学マーカーを反射板を介して撮影する。
なお、第一画像及び第二画像において光学マーカーを直接撮影したか、或いは、反射板を介して撮影したかのいずれであるかを判定する必要があるが、本発明のモーショントラッカ装置では、判定結果情報作成部が、例えば、第一画像及び第二画像中における各光学マーカー像の光強度や、各光学マーカー像の位置関係等に基づいて判定する。
これにより、光学マーカー位置情報算出部は、判定結果情報と第一画像及び第二画像とに基づいて、測定対象物に取り付けられた3点の位置(3個の光学マーカーの位置)を特定することで、基準対象物に対する測定対象物の現在位置や現在角度を算出する。
Here, examples of the “light emitted from the optical marker” include infrared light, ultraviolet light, and visible light.
According to the motion tracker device of the present invention, a plurality of optical markers are attached to the measurement object so as to be separated from each other, and the positions of the plurality of optical markers on the measurement object are stored in advance. In addition, the camera device and the reflector are attached to the reference object, and the relative positional relationship between the camera device and the reflector on the reference object is stored in advance.
Then, the camera device photographs at least three of the plurality of optical markers, and measures the positional relationship between the at least three optical markers and the camera device according to the so-called triangulation principle. . At this time, for example, in the camera device installed on the upper part of the seat of the flying object (reference object), when the wearer wearing the helmet (measurement object) is looking in front, Take three optical markers directly with two cameras. On the other hand, when a wearer wearing a helmet is looking at the right side while moving his body to the right side, the first camera directly shoots three optical markers, and the second camera directly shoots three optical markers. Although not possible, the three optical markers are photographed through the reflector.
Note that it is necessary to determine whether the optical marker is directly photographed in the first image and the second image or photographed via the reflector, but in the motion tracker device of the present invention, the determination is made. The result information creation unit makes a determination based on, for example, the light intensity of each optical marker image in the first image and the second image, the positional relationship of each optical marker image, and the like.
Accordingly, the optical marker position information calculation unit specifies the positions of the three points attached to the measurement target (positions of the three optical markers) based on the determination result information, the first image, and the second image. Thus, the current position and the current angle of the measurement object with respect to the reference object are calculated.

以上のように、本発明のモーショントラッカ装置によれば、飛行体等の基準対象物に対して、頭部装着型表示装置付ヘルメット等の測定対象物があらゆる方向に向いても、基準対象物に対する測定対象物の動きを測定することができる。 As described above, according to the motion tracker device of the present invention, even if the measurement object such as the helmet with a head-mounted display device is directed in any direction with respect to the reference object such as the flying object, the reference object The movement of the object to be measured can be measured.

(他の課題を解決するための手段および効果)
また、上記の発明において、前記複数個の光学マーカーのうちから選択した少なくとも3個の光学マーカーを点灯させる光学マーカー点灯制御部を備え、各光学マーカーは、少なくとも3種類の波長の光のうちから予め設定された1種類の波長の光を出射し、前記光学マーカー点灯制御部は、同時に点灯させる光学マーカーが互いに異なる種類の波長の光を出射するように制御するようにしてもよい。
本発明によれば、3個の光学マーカーを波長差によりそれぞれ識別することができる。
(Means and effects for solving other problems)
Further, in the above invention, an optical marker lighting control unit for lighting at least three optical markers selected from the plurality of optical markers is provided, and each optical marker is selected from light of at least three types of wavelengths. Light of one type of wavelength set in advance may be emitted, and the optical marker lighting control unit may perform control so that the optical markers that are simultaneously turned on emit light of different types of wavelengths.
According to the present invention, the three optical markers can be identified by the wavelength difference.

また、上記の発明において、前記判定結果情報作成部は、前記第一画像及び第二画像中における各光学マーカー像の光強度に基づいて、直接撮影した光学マーカー像であるか、或いは、反射板を介して撮影した光学マーカー像であるかを判定することにより、前記判定結果情報を作成するようにしてもよい。
また、上記の発明において、前記判定結果情報作成部は、前記第一画像及び第二画像のそれぞれの画像中における各光学マーカー像の位置関係に基づいて、直接撮影した光学マーカー像群であるか、或いは、反射板を介して撮影した光学マーカー像群であるかを判定することにより、前記判定結果情報を作成するようにしてもよい。
また、上記の発明において、前記判定結果情報作成部は、前記第一画像及び第二画像のそれぞれの画像中に座標系を作成して、第一の光学マーカー像から第二の光学マーカー像へのベクトルと、第一の光学マーカー像から第三の光学マーカー像へのベクトルとの外積における符号を算出することにより、直接撮影した光学マーカー像群であるか、或いは、反射板を介して撮影した光学マーカー像群であるかを判定するようにしてもよい。
Further, in the above invention, the determination result information creation unit is an optical marker image taken directly based on a light intensity of each optical marker image in the first image and the second image, or a reflection plate The determination result information may be created by determining whether the image is an optical marker image photographed via the.
In the above invention, is the determination result information creation unit an optical marker image group directly captured based on a positional relationship of the optical marker images in the first image and the second image? Alternatively, the determination result information may be created by determining whether the optical marker image group is photographed through a reflecting plate.
In the above invention, the determination result information creation unit creates a coordinate system in each of the first image and the second image, and changes from the first optical marker image to the second optical marker image. By calculating the sign of the outer product of the vector of the first vector and the vector from the first optical marker image to the third optical marker image, or a group of directly photographed optical marker images or photographed via a reflector It may be determined whether the optical marker image group has been selected.

また、上記の発明において、各光学マーカーは、互いに同種類の波長の光を出射し、前記判定結果情報作成部は、前記第一画像及び第二画像中における各光学マーカー像の光強度に基づいて、直接撮影した光学マーカー像であるか、或いは、反射板を介して撮影した光学マーカー像であるかを判定することにより、前記判定結果情報を作成して、前記光学マーカー位置情報算出部は、前記判定結果情報に基づいて、前記第一カメラで撮影された各光学マーカー像のエピポーララインを第二画像中に作成することにより、前記光学マーカー位置情報を算出するようにしてもよい。
本発明によれば、各光学マーカーに識別情報を持たせたり、1個1個順番に点灯させたりしなくても、各光学マーカーをそれぞれ識別することができる。
In the above invention, each optical marker emits light of the same type of wavelength, and the determination result information creation unit is based on the light intensity of each optical marker image in the first image and the second image. The optical marker position information calculating unit creates the determination result information by determining whether the optical marker image is a direct image or an optical marker image captured through a reflector. Based on the determination result information, the optical marker position information may be calculated by creating an epipolar line of each optical marker image photographed by the first camera in the second image.
According to the present invention, it is possible to identify each optical marker without giving identification information to each optical marker or without lighting each one in turn.

そして、上記の発明において、前記基準対象物は、装着者が搭乗する移動体であり、かつ、前記測定対象物は、当該装着者の頭部に装着される半球状のヘルメットであるようにしてもよい。
さらに、上記の発明において、前記光学マーカーは、発光ダイオードであるようにしてもよい。
In the above invention, the reference object is a moving body on which a wearer rides, and the measurement object is a hemispherical helmet mounted on the head of the wearer. Also good.
Furthermore, in the above invention, the optical marker may be a light emitting diode.

以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and it goes without saying that various aspects are included without departing from the spirit of the present invention.

図1は、本発明の一実施形態であるHMT装置の概略構成の一例を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメット(測定対象物)の一例の斜視図である。また、図3及び図5は、図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す斜視図であり、図4及び図6は、図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す平面図である。
本実施形態は、搭乗体(基準対象物)30に搭乗するパイロット3の頭部の搭乗体30に対する現在位置及び現在角度を算出するものである。つまり、HMT装置1は、搭乗体30に設定された相対座標系(XYZ座標系)に対する、パイロット3が装着する頭部装着型表示装置付ヘルメット10に設定されたヘルメット座標系(X’Y’Z’座標系)の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を含む相対情報を算出するものである。なお、相対座標系(XYZ座標系)は、後述するカメラ装置2を基準として制御部20に予め記憶されており、一方、ヘルメット座標系(X’Y’Z’座標系)は、後述するLED群7を基準として制御部20に予め記憶されている。また、角度(Θ)は、ロール方向(X軸に対する回転)の角度であり、角度(Φ)は、エレベーション方向(Y軸に対する回転)の角度であり、角度(Ψ)は、アジマス方向(Z軸に対する回転)の角度である。
FIG. 1 is a diagram showing an example of a schematic configuration of an HMT device according to an embodiment of the present invention, and FIG. 2 is a perspective view of an example of a helmet with a head-mounted display device (measurement object) shown in FIG. FIG. 3 and 5 are perspective views showing the positional relationship between the helmet with a head-mounted display device shown in FIG. 2 and the camera device, and FIGS. 4 and 6 show the head-mounted type shown in FIG. It is a top view which shows the positional relationship of a helmet with a display apparatus and a camera apparatus.
In the present embodiment, the current position and the current angle of the head of the pilot 3 who rides on the vehicle (reference object) 30 with respect to the vehicle 30 are calculated. That is, the HMT device 1 has a helmet coordinate system (X′Y ′) set in the helmet 10 with a head mounted display device worn by the pilot 3 with respect to the relative coordinate system (XYZ coordinate system) set in the vehicle 30. Relative information including the current position (X, Y, Z) and the current angle (Θ, Φ, Ψ) of the Z ′ coordinate system) is calculated. The relative coordinate system (XYZ coordinate system) is stored in advance in the control unit 20 with the camera device 2 described later as a reference, while the helmet coordinate system (X′Y′Z ′ coordinate system) is an LED described later. Pre-stored in the control unit 20 with the group 7 as a reference. The angle (Θ) is the angle in the roll direction (rotation with respect to the X axis), the angle (Φ) is the angle in the elevation direction (rotation with respect to the Y axis), and the angle (Ψ) is in the azimuth direction ( Angle of rotation with respect to the Z-axis).

HMT装置1は、パイロット3の頭部に装着される頭部装着型表示装置付ヘルメット10と、搭乗体30の座席30aの上部に取り付けられたカメラ装置2(2a、2b)と、搭乗体30の前面に取り付けられた赤外光を反射する反射板5(5a、5b)と、コンピュータにより構成される制御部20とから構成される。
搭乗体30は、パイロット3が搭乗する飛行体のコックピットであり、パイロット3が着席する座席30aを備える。
The HMT device 1 includes a head mounted helmet 10 with a display device mounted on the head of a pilot 3, a camera device 2 (2 a, 2 b) attached to an upper portion of a seat 30 a of the vehicle body 30, and the vehicle body 30. The reflecting plate 5 (5a, 5b) that reflects infrared light attached to the front surface of the head and a control unit 20 configured by a computer.
The mounted body 30 is a cockpit of a flying body on which the pilot 3 is boarded, and includes a seat 30a on which the pilot 3 is seated.

頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、パイロット3の目に導くバイザー8と、半球状のヘルメット9と、頭部の現在位置(X、Y、Z)や現在角度(Θ、Φ、Ψ)を測定する際の指標として機能するLED群(光学マーカー群)7とを有する。なお、頭部装着型表示装置付ヘルメット10を装着したパイロット3は、表示器による表示映像とバイザー8の前方実在物とを視認することが可能となっている。
LED群7は、図2に示すように、複数個のLED7a〜7kがヘルメット9の外周面全面に取り付けられている。
ここで、ヘルメット座標系(X’Y’Z’座標系)について説明する。ヘルメット座標系(X’Y’Z’座標系)における原点位置O’及びX’Y’Z’軸方向を任意に定めることができるが、本実施形態では図2に示すように、原点O’を定義し、前方方向をX’軸方向とし、前方方向に垂直方向をY’軸方向とし、X’軸方向及びY’軸方向に垂直方向をZ’軸方向とするように定義するように、後述するヘルメット座標系記憶領域42に予め記憶させている。また、ヘルメット座標系(X’Y’Z’座標系)上での複数個のLED7a〜7kの位置(x’、y’、z’)も、ヘルメット座標系記憶領域42に予め記憶させている。
また、LED7a、7d、7g、7jは、波長Aの赤外光を出射し、LED7b、7e、7h、7kは、波長Bの赤外光を出射し、LED7c、7f,7iは、波長Cの赤外光を出射する。つまり、各LEDは、3種類の波長A、B、Cの赤外光のうちから予め設定された1種類の波長の赤外光を出射する。これにより、後述する光学マーカー点灯制御部31が、複数個のLED7a〜7kのうちから選択した3個のLEDを点灯させる際に、同時に点灯させる3個のLEDが互いに異なる種類の波長A、B、Cの赤外光を出射するように制御することができるようになっている。
The helmet 10 with a head-mounted display device includes a display (not shown), a visor 8 that guides the eyes of the pilot 3 by reflecting image display light emitted from the display, and a hemispherical helmet 9. And an LED group (optical marker group) 7 that functions as an index when measuring the current position (X, Y, Z) and the current angle (Θ, Φ, Ψ) of the head. In addition, the pilot 3 wearing the helmet 10 with a head-mounted display device can visually recognize the display image by the display and the front actual thing of the visor 8.
As shown in FIG. 2, the LED group 7 has a plurality of LEDs 7 a to 7 k attached to the entire outer peripheral surface of the helmet 9.
Here, the helmet coordinate system (X′Y′Z ′ coordinate system) will be described. Although the origin position O ′ and the X′Y′Z ′ axis direction in the helmet coordinate system (X′Y′Z ′ coordinate system) can be arbitrarily determined, in this embodiment, as shown in FIG. And the forward direction is defined as the X′-axis direction, the forward direction is defined as the Y′-axis direction, and the vertical direction is defined as the X′-axis direction and the Y′-axis direction as the Z′-axis direction. These are stored in advance in a helmet coordinate system storage area 42 described later. Further, the positions (x ′, y ′, z ′) of the plurality of LEDs 7 a to 7 k on the helmet coordinate system (X′Y′Z ′ coordinate system) are also stored in the helmet coordinate system storage area 42 in advance. .
The LEDs 7a, 7d, 7g, and 7j emit infrared light having a wavelength A, the LEDs 7b, 7e, 7h, and 7k emit infrared light having a wavelength B, and the LEDs 7c, 7f, and 7i have wavelengths C. Infrared light is emitted. That is, each LED emits infrared light having one preset wavelength from among three types of infrared light having wavelengths A, B, and C. Accordingly, when the optical marker lighting control unit 31 described later lights three LEDs selected from the plurality of LEDs 7a to 7k, the three LEDs to be turned on simultaneously have different types of wavelengths A and B. , C can be controlled to emit infrared light.

カメラ装置2は、第一カメラ2aと第二カメラ2bとからなり、撮影方向が頭部装着型表示装置付ヘルメット10に向けられているとともに、頭部装着型表示装置付ヘルメット10の立体視が可能な一定の距離dを隔てるように、搭乗体30の座席30aの上部に設置されている。そして、第一カメラ2aで第一画像15が作成されるとともに、第二カメラ2bで第二画像16が作成される。
これにより、図4に示すように、第一カメラ2aでLED7cが直接撮影されたときには、第一画像15中に映し出されているLED像の位置により、第一カメラ2aからの方向角度αを算出し、第二カメラ2bでLED7cが直接撮影されているときには、第二画像16中に映し出されているLED像の位置により、第二カメラ2bからの方向角度βを算出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることにより、所謂、三角測量の手法でカメラ装置2に対するLED7cの位置を算出できるようになっている。
このとき、LED7cの位置を空間座標で表現するために、カメラ装置2に固定された座標系である相対座標系(XYZ座標系)を用いる。
ここで、相対座標系(XYZ座標系)について説明する。相対座標系(XYZ座標系)における原点位置O及びXYZ軸方向を任意に定めることができるが、本実施形態では図4及び図6に示すように、第一カメラ2aから第二カメラ2bへの方向をY軸方向とし、Y軸方向に垂直かつ天井に垂直で上向き方向をZ軸方向とし、Y軸方向及びZ軸方向に垂直かつ前方方向をX軸方向とするように定義し、原点Oを第一カメラ2aと第二カメラ2bとの中点として定義するように相対座標系記憶領域41に予め記憶させている。
よって、本実施形態では、このような相対座標系(XYZ座標系)がカメラ装置2に予め設定されているので、LED7cの現在位置は、相対座標系(XYZ座標系)上での位置(x、y、z)で表現される。そして、このようにして3個のLEDの現在位置(x、y、z)が特定されるので、ヘルメット座標系(X’Y’Z’座標系)上での複数個のLED7a〜7kの位置(x’、y’、z’)である初期データを参照することで、頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)は、相対座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の現在位置及び現在角度を用いて表現されるようになっている。
The camera device 2 is composed of a first camera 2a and a second camera 2b. The photographing direction is directed to the helmet 10 with a head-mounted display device, and stereoscopic viewing of the helmet 10 with a head-mounted display device is possible. It is installed in the upper part of the seat 30a of the vehicle body 30 so as to be separated by a possible constant distance d. Then, the first image 15 is created by the first camera 2a, and the second image 16 is created by the second camera 2b.
Accordingly, as shown in FIG. 4, when the LED 7c is directly photographed by the first camera 2a, the direction angle α from the first camera 2a is calculated from the position of the LED image displayed in the first image 15. When the second camera 2b directly captures the LED 7c, the direction angle β from the second camera 2b is calculated from the position of the LED image displayed in the second image 16, and the first camera 2a By using the distance d between the second camera 2b and the so-called triangulation method, the position of the LED 7c relative to the camera device 2 can be calculated.
At this time, a relative coordinate system (XYZ coordinate system), which is a coordinate system fixed to the camera device 2, is used to express the position of the LED 7c in spatial coordinates.
Here, the relative coordinate system (XYZ coordinate system) will be described. Although the origin position O and the XYZ axis directions in the relative coordinate system (XYZ coordinate system) can be arbitrarily determined, in this embodiment, as shown in FIGS. 4 and 6, the first camera 2 a to the second camera 2 b A direction is defined as a Y-axis direction, a direction perpendicular to the Y-axis direction, perpendicular to the ceiling, an upward direction as a Z-axis direction, a direction perpendicular to the Y-axis direction and the Z-axis direction, and a forward direction as an X-axis direction. Is stored in advance in the relative coordinate system storage area 41 so as to be defined as the midpoint between the first camera 2a and the second camera 2b.
Therefore, in the present embodiment, such a relative coordinate system (XYZ coordinate system) is set in the camera device 2 in advance, so that the current position of the LED 7c is a position (x in the relative coordinate system (XYZ coordinate system)). , Y, z). Since the current positions (x, y, z) of the three LEDs are specified in this way, the positions of the plurality of LEDs 7a to 7k on the helmet coordinate system (X'Y'Z 'coordinate system). By referring to the initial data of (x ′, y ′, z ′), the current position (X, Y, Z) and the current angle (Θ, Φ, Ψ) of the helmet 10 with a head mounted display device can be obtained. The current position and the current angle of the helmet coordinate system (X′Y′Z ′ coordinate system) relative to the relative coordinate system (XYZ coordinate system) are represented.

反射板5は、平板形状の第一反射板5aと、平板形状の第二反射板5bとからなり、LED群7から出射された赤外光を反射する。なお、上記反射板としては、例えば、赤外光を反射するとともに、可視光を透過する性質の誘電体多層膜等で形成されたものが挙げられる。
第一反射板5aは、その反射面が第一カメラ2aに向けられているとともに、第一カメラ2aに撮影されるように、搭乗体30の前面に設置されている。第二反射板5bは、その反射面が第二カメラ2bに向けられているとともに、第二カメラ2bに撮影されるように、搭乗体30の前面に設置されている。
そして、LED群7から出射された赤外光の光強度(輝度)は、カメラ装置2に直接導かれたときと比較して、カメラ装置2に反射板5を介して導かれたときには、弱くなるようになっている。これにより、後述する判定結果情報作成部34が、第一画像15及び第二画像16中に映し出されているLED像の光強度により、LEDを直接撮影したか、或いは、反射板5を介して撮影したかのいずれであるかを判定することができるようになっている。また、LEDを直接撮影したか、或いは、反射板5を介して撮影したかのいずれであるかを判定しているので、図5及び図6に示すように、第一カメラ2aでLED7aが直接撮影されたと判定したときには、第一画像15中に映し出されているLED像の位置により、第一カメラ2aからの方向角度αを算出し、第二カメラ2bでLED7aが第二反射板5bを介して撮影されたと判定したときには、第二画像16中に映し出されているLED像の位置により、第二カメラ2bからの方向角度γと第二反射板5bからの方向角度δとを算出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることにより、カメラ装置2に対するLED7aの位置を算出できるようになっている。すなわち、相対座標系(XYZ座標系)上でのLED7aの位置(x、y、z)を算出できるようになっている。
The reflection plate 5 includes a flat plate-shaped first reflection plate 5 a and a flat plate-shaped second reflection plate 5 b, and reflects the infrared light emitted from the LED group 7. Examples of the reflecting plate include those formed of a dielectric multilayer film that reflects infrared light and transmits visible light.
The first reflecting plate 5a is installed on the front surface of the vehicle 30 so that the reflecting surface thereof is directed to the first camera 2a and is photographed by the first camera 2a. The second reflecting plate 5b is installed on the front surface of the vehicle 30 so that the reflecting surface thereof is directed to the second camera 2b and is photographed by the second camera 2b.
The light intensity (luminance) of infrared light emitted from the LED group 7 is weaker when guided to the camera device 2 via the reflector 5 than when guided directly to the camera device 2. It is supposed to be. Thereby, the determination result information creation unit 34 to be described later directly captures the LED by the light intensity of the LED image displayed in the first image 15 and the second image 16, or passes through the reflector 5. It is possible to determine whether the image was taken. Further, since it is determined whether the LED is directly photographed or photographed via the reflector 5, the LED 7a is directly captured by the first camera 2a as shown in FIGS. When it is determined that the image has been taken, the direction angle α from the first camera 2a is calculated from the position of the LED image displayed in the first image 15, and the LED 7a passes through the second reflector 5b in the second camera 2b. Is determined, the direction angle γ from the second camera 2b and the direction angle δ from the second reflector 5b are calculated from the position of the LED image displayed in the second image 16, By using the distance d between the one camera 2a and the second camera 2b, the position of the LED 7a relative to the camera device 2 can be calculated. That is, the position (x, y, z) of the LED 7a on the relative coordinate system (XYZ coordinate system) can be calculated.

制御部20は、CPU21、メモリ40等からなるコンピュータにより構成され、各種の制御や演算処理を行うものである。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、LED7a〜7kを点灯させる光学マーカー点灯制御部31と、光学マーカー位置情報算出部32と、相対情報算出部33と、判定結果情報作成部34と、映像表示部35とを有する。
また、メモリ40には、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、相対座標系(XYZ座標系)と反射板5の位置(x、y、z)を記憶する相対座標系記憶領域41と、ヘルメット座標系(X’Y’Z’座標系)とLED7a〜7kの位置(x’、y’、z’)とを記憶するヘルメット座標系記憶領域42とを有する。
The control unit 20 is configured by a computer including a CPU 21, a memory 40, and the like, and performs various controls and arithmetic processes. The processing executed by the CPU 21 will be described separately for each functional block. An optical marker lighting control unit 31 that lights the LEDs 7a to 7k, an optical marker position information calculation unit 32, a relative information calculation unit 33, and determination result information creation A section 34 and a video display section 35.
The memory 40 is formed with an area for storing various data necessary for the control unit 20 to execute processing, and the relative coordinate system (XYZ coordinate system) and the position (x, y) of the reflecting plate 5 are formed. , Z), a relative coordinate system storage area 41, a helmet coordinate system (X′Y′Z ′ coordinate system), and a helmet coordinate system that stores the positions (x ′, y ′, z ′) of the LEDs 7a to 7k. And a storage area 42.

光学マーカー点灯制御部31は、複数個のLED7a〜7kのうちから選択した3個のLEDを点灯させる制御を行う。なお、複数個のLED7a〜7kのうちから選択した3個のLEDを点灯させる際には、同時に点灯させる3個のLEDが互いに異なる種類の波長A、B、Cの赤外光を出射するように制御する。例えば、図2に示すように、LED7cから波長Aの赤外光を出射させ、LED7dから波長Bの赤外光を出射させ、LED7eから波長Cの赤外光を出射させる。これにより、第一画像15及び第二画像16中に映し出されているLED像が、どのLEDの画像であるかを識別することができるようになっている。 The optical marker lighting control unit 31 performs control for lighting three LEDs selected from the plurality of LEDs 7a to 7k. When three LEDs selected from the plurality of LEDs 7a to 7k are turned on, the three LEDs that are turned on simultaneously emit infrared light of different types of wavelengths A, B, and C. To control. For example, as shown in FIG. 2, infrared light having a wavelength A is emitted from the LED 7c, infrared light having a wavelength B is emitted from the LED 7d, and infrared light having a wavelength C is emitted from the LED 7e. Accordingly, it is possible to identify which LED image the LED image displayed in the first image 15 and the second image 16 is.

判定結果情報作成部34は、第一画像15及び第二画像16中における各LED像の光強度に基づいて、直接撮影したLED像であるか、或いは、反射板5を介して撮影したLED像であるかを判定することにより、第一画像15及び第二画像16においてLEDが直接撮影されたか、或いは、反射板5を介して撮影されたかのいずれであるかを判定した判定結果情報を作成する制御を行う。
具体的には、直接撮影したLED像であるか、或いは、反射板5を介して撮影したLED像であるかを判定するための光強度(輝度)の閾値Athを予め記憶させておき、第一画像15中における1個のLED像の光強度(輝度)Aが、光強度の閾値Ath以上であるときには、直接撮影したLED像であると判定し、一方、LED像の光強度Aが、光強度の閾値Ath未満であるときには、第一反射板5aを介して撮影したLED像であると判定する。同様に、第一画像15中における他のLED像の光強度Aや、第二画像16中におけるLED像の光強度Aについても判定していく。
Based on the light intensity of each LED image in the first image 15 and the second image 16, the determination result information creation unit 34 is an LED image captured directly or an LED image captured via the reflector 5. The determination result information for determining whether the LED is directly photographed in the first image 15 and the second image 16 or photographed via the reflection plate 5 is created. Take control.
Specifically, a threshold value Ath of light intensity (luminance) for determining whether the LED image is a directly captured LED image or an LED image captured via the reflector 5 is stored in advance. When the light intensity (luminance) A of one LED image in the first image 15 is equal to or greater than the light intensity threshold Ath , it is determined that the LED image is directly captured, while the light intensity A of the LED image is Is less than the light intensity threshold Ath , it is determined that the LED image is taken through the first reflector 5a. Similarly, the light intensity A of another LED image in the first image 15 and the light intensity A of the LED image in the second image 16 are also determined.

光学マーカー位置情報算出部32は、判定結果情報と第一画像15及び第二画像16とに基づいて、相対座標系(XYZ座標系)上でのLEDの現在位置(x、y、z)である光学マーカー位置情報を算出する制御を行う。
例えば、図4に示すように、第一カメラ2aでLED7cが直接撮影されたと判定されたときには、第一画像15中に映し出されている波長CのLED像の位置により、第一カメラ2aからの方向角度αを算出し、第二カメラ2bでLED7cが直接撮影されたと判定されたときには、第二画像16中に映し出されている波長CのLED像の位置により、第二カメラ2bからの方向角度βを算出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることで、相対座標系(XYZ座標系)上でのLED7cの現在位置(x、y、z)を算出する。
また、図6に示すように、第一カメラ2aでLED7aが直接撮影されたと判定されたときには、第一画像15中に映し出されている波長AのLED像の位置により、第一カメラ2aからの方向角度αを算出し、第二カメラ2bでLED7aが第二反射板5bを介して撮影されたと判定されたときには、第二画像16中に映し出されている波長AのLED像の位置により、第二カメラ2bからの方向角度γと第二反射板5bからの方向角度δとを算出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることで、相対座標系(XYZ座標系)上でのLED7aの現在位置(x、y、z)を算出する。
このようにして3個のLEDの現在位置(x、y、z)を算出して、光学マーカー位置情報を算出する。
Based on the determination result information and the first image 15 and the second image 16, the optical marker position information calculation unit 32 uses the current position (x, y, z) of the LED on the relative coordinate system (XYZ coordinate system). Control to calculate certain optical marker position information is performed.
For example, as shown in FIG. 4, when it is determined that the LED 7c has been directly photographed by the first camera 2a, the position from the first camera 2a depends on the position of the LED image of the wavelength C displayed in the first image 15. When the direction angle α is calculated and it is determined that the LED 7c is directly photographed by the second camera 2b, the direction angle from the second camera 2b is determined by the position of the LED image of the wavelength C displayed in the second image 16. By calculating β and using the distance d between the first camera 2a and the second camera 2b, the current position (x, y, z) of the LED 7c on the relative coordinate system (XYZ coordinate system) is calculated. .
Further, as shown in FIG. 6, when it is determined that the LED 7a is directly photographed by the first camera 2a, the position from the first camera 2a depends on the position of the LED image of the wavelength A displayed in the first image 15. The direction angle α is calculated, and when the second camera 2b determines that the LED 7a has been photographed through the second reflector 5b, the second camera 2b determines whether the LED image of the wavelength A projected in the second image 16 By calculating the direction angle γ from the second camera 2b and the direction angle δ from the second reflector 5b, and using the distance d between the first camera 2a and the second camera 2b, the relative coordinate system (XYZ coordinates) The current position (x, y, z) of the LED 7a on the system) is calculated.
In this way, the current position (x, y, z) of the three LEDs is calculated, and the optical marker position information is calculated.

相対情報算出部33は、光学マーカー位置情報に基づいて、相対座標系(XYZ座標系)に対する頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を含む相対情報を算出する制御を行う。
具体的には、3個のLEDの現在位置(x、y、z)が特定されるので、ヘルメット座標系(X’Y’Z’座標系)上での複数個のLED7a〜7kの位置(x’、y’、z’)である初期データを参照することで、頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を算出する。
映像表示部35は、相対情報に基づいて、表示器から映像表示光を出射する制御を行う。これにより、パイロット3は、表示器による表示映像を視認する。
Based on the optical marker position information, the relative information calculation unit 33 determines the current position (X, Y, Z) and the current angle (Θ, Φ) of the helmet 10 with a head-mounted display device relative to the relative coordinate system (XYZ coordinate system). , Ψ) is controlled to calculate relative information.
Specifically, since the current positions (x, y, z) of the three LEDs are specified, the positions of the plurality of LEDs 7a to 7k on the helmet coordinate system (X′Y′Z ′ coordinate system) ( The current position (X, Y, Z) and current angle (Θ, Φ, Ψ) of the helmet 10 with a head mounted display device are calculated by referring to the initial data as x ′, y ′, z ′). To do.
The video display unit 35 performs control for emitting video display light from the display based on the relative information. Thereby, the pilot 3 visually recognizes the display image by the display.

次に、HMT装置1により、搭乗体30に設定された相対座標系(XYZ座標系)に対する、パイロット3が装着する頭部装着型表示装置付ヘルメット10に設定されたヘルメット座標系(X’Y’Z’座標系)の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を測定する測定動作について説明する。図7は、HMT装置1による測定動作について説明するためのフローチャートである。
まず、ステップS101の処理において、光学マーカー点灯制御部31は、複数個のLED7a〜7kのうちから選択した3個のLEDを点灯させる。
次に、ステップS102の処理において、第一カメラ2a及び第二カメラ2bは、LEDを同時に撮影して、第一画像15及び第二画像16を作成する。
Next, the helmet coordinate system (X′Y) set in the helmet 10 with a head mounted display device worn by the pilot 3 with respect to the relative coordinate system (XYZ coordinate system) set in the vehicle 30 by the HMT device 1. A measurement operation for measuring the current position (X, Y, Z) and the current angle (Θ, Φ, ψ) of the “Z” coordinate system will be described. FIG. 7 is a flowchart for explaining the measurement operation by the HMT apparatus 1.
First, in the process of step S101, the optical marker lighting control unit 31 lights three LEDs selected from the plurality of LEDs 7a to 7k.
Next, in the process of step S <b> 102, the first camera 2 a and the second camera 2 b photograph the LEDs simultaneously to create the first image 15 and the second image 16.

次に、ステップS103の処理において、第一画像15及び第二画像16中における各LED像の光強度に基づいて、直接撮影したLED像であるか、或いは、反射板5を介して撮影したLED像であるかを判定することにより、判定結果情報を作成する。
次に、ステップS104の処理において、光学マーカー位置情報算出部32は、判定結果情報と第一画像15及び第二画像16とに基づいて、相対座標系(XYZ座標系)上でのLEDの現在位置(x、y、z)である光学マーカー位置情報を算出する。
次に、ステップS105の処理において、相対情報算出部33は、光学マーカー位置情報に基づいて、相対座標系(XYZ座標系)に対する頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を含む相対情報を算出する。
Next, in the process of step S103, based on the light intensity of each LED image in the first image 15 and the second image 16, it is an LED image taken directly or an LED taken through the reflector 5 Determination result information is created by determining whether the image is an image.
Next, in the processing of step S104, the optical marker position information calculation unit 32 presents the current LED on the relative coordinate system (XYZ coordinate system) based on the determination result information and the first image 15 and the second image 16. Optical marker position information which is the position (x, y, z) is calculated.
Next, in the process of step S105, the relative information calculation unit 33, based on the optical marker position information, the current position (X, Y,...) Of the helmet 10 with head mounted display device with respect to the relative coordinate system (XYZ coordinate system). Z) and relative information including the current angle (Θ, Φ, ψ) is calculated.

次に、ステップS106の処理において、映像表示部35は、相対情報に基づいて、表示器から映像表示光を出射する。
次に、ステップS107の処理において、測定を終了するか否かを判定する。測定を終了しないと判定されたときには、ステップS101の処理に戻る。つまり、測定を終了すると判定されるときまで、ステップS101〜ステップS106の処理は繰り返される。
そして、測定を終了すると判定されたときには、本フローチャートを終了させる。
Next, in the process of step S106, the video display unit 35 emits video display light from the display based on the relative information.
Next, in step S107, it is determined whether or not to end the measurement. If it is determined not to end the measurement, the process returns to step S101. That is, the processes in steps S101 to S106 are repeated until it is determined to end the measurement.
When it is determined that the measurement is to be finished, this flowchart is finished.

以上のように、HMT装置1によれば、搭乗体30に対して、頭部装着型表示装置付ヘルメット10があらゆる方向に向いても、搭乗体30に対する頭部装着型表示装置付ヘルメット10の動きを測定することができる。 As described above, according to the HMT device 1, even if the helmet 10 with a head-mounted display device is directed in all directions with respect to the vehicle 30, the helmet 10 with a head-mounted display device with respect to the vehicle 30. Movement can be measured.

(他の実施形態)
(1)上述したHMT装置1では、判定結果情報作成部34は、第一画像15及び第二画像16中における各LED像の光強度に基づいて、直接撮影したLED像であるか、或いは、反射板5を介して撮影したLED像であるかを判定する構成としたが、第一画像及び第二画像のそれぞれの画像中に座標系を作成して、第一のLED像から第二のLED像へのベクトルと、第一のLED像から第三のLED像へのベクトルとの外積における符号を算出することにより、直接撮影したLED像群であるか、或いは、反射板を介して撮影したLED像群であるかを判定するような構成としてもよい。このとき、直接撮影したLED像群であるときの外積における符号と、反射板を介して撮影したLED像群であるときの外積における符号とを予め記憶させておき、記憶させた符号と比較することにより、直接撮影したLED像群であるか、或いは、反射板を介して撮影したLED像群であるかを判定するようにすればよい。
(2)上述したHMT装置1では、各LEDは、3種類の波長A、B、Cの赤外光のうちから予め設定された1種類の波長の赤外光を出射する構成としたが、各LEDは、同一種類の赤外光を出射するような構成としてもよい。このときには、光学マーカー位置情報算出部は、判定結果情報に基づいて、第一カメラで撮影された各LED像のエピポーララインを第二画像中に作成することにより、光学マーカー位置情報を算出するようにすればよい。
(Other embodiments)
(1) In the HMT device 1 described above, the determination result information creation unit 34 is an LED image taken directly based on the light intensity of each LED image in the first image 15 and the second image 16, or Although it was set as the structure which determines whether it is an LED image image | photographed via the reflecting plate 5, a coordinate system is created in each image of a 1st image and a 2nd image, and it is 2nd from a 1st LED image. By calculating the sign of the outer product of the vector to the LED image and the vector from the first LED image to the third LED image, it is a group of LED images taken directly, or taken through a reflector It is good also as a structure which determines whether it is the LED image group which carried out. At this time, the code in the outer product when the LED image group is directly photographed and the code in the outer product when the LED image group is photographed through the reflector are stored in advance and compared with the stored code. Thus, it may be determined whether the LED image group is a directly photographed LED image group or an LED image group photographed via a reflector.
(2) In the HMT device 1 described above, each LED is configured to emit infrared light having one preset wavelength from among three types of infrared light having wavelengths A, B, and C. Each LED may be configured to emit the same type of infrared light. At this time, the optical marker position information calculation unit calculates the optical marker position information by creating an epipolar line of each LED image photographed by the first camera in the second image based on the determination result information. You can do it.

本発明のHMT装置は、例えば、ゲーム機や乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度を測定するものとして、利用される。 The HMT device of the present invention is used, for example, as a device for measuring the current position and the current angle of a helmet with a head-mounted display device used in a game machine or a vehicle.

本発明の一実施形態であるHMT装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the HMT apparatus which is one Embodiment of this invention. 頭部装着型表示装置付ヘルメットの一例の斜視図である。It is a perspective view of an example of a helmet with a head mounting type display device. 図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す斜視図である。It is a perspective view which shows the positional relationship of the helmet with a head mounting | wearing type display apparatus shown in FIG. 2, and a camera apparatus. 図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す平面図である。It is a top view which shows the positional relationship of the helmet with a head mounted display apparatus shown in FIG. 2, and a camera apparatus. 図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す斜視図である。It is a perspective view which shows the positional relationship of the helmet with a head mounting | wearing type display apparatus shown in FIG. 2, and a camera apparatus. 図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す平面図である。It is a top view which shows the positional relationship of the helmet with a head mounted display apparatus shown in FIG. 2, and a camera apparatus. HMT装置による測定動作について説明するためのフローチャートである。It is a flowchart for demonstrating the measurement operation | movement by a HMT apparatus. 図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す斜視図である。It is a perspective view which shows the positional relationship of the helmet with a head mounting | wearing type display apparatus shown in FIG. 2, and a camera apparatus. 図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す斜視図である。It is a perspective view which shows the positional relationship of the helmet with a head mounting | wearing type display apparatus shown in FIG. 2, and a camera apparatus.

符号の説明Explanation of symbols

1 ヘッドモーショントラッカ装置
2 カメラ装置
3 パイロット
5 光源
7 LED(光学マーカー)
10 頭部装着型表示装置付ヘルメット(測定対象物)
15 第一画像
16 第二画像
30 搭乗体(基準対象物)
32 光学マーカー位置情報算出部
33 相対情報算出部
34 判定結果情報作成部
1 Head Motion Tracker Device 2 Camera Device 3 Pilot 5 Light Source 7 LED (Optical Marker)
10 Helmet with head mounted display (measurement object)
15 First image 16 Second image 30 Carriage (reference object)
32 Optical marker position information calculation unit 33 Relative information calculation unit 34 Determination result information generation unit

Claims (8)

測定対象物に取り付けられ、光を出射する3個以上の光学マーカーと、
基準対象物に取り付けられ、かつ、前記光学マーカーを撮影することにより第一画像を作成する第一カメラと、前記第一カメラが撮影すると同時に第一カメラと異なる方向から光学マーカーを撮影することにより第二画像を作成する第二カメラとを有するカメラ装置と、
前記カメラ装置に対する光学マーカーの現在位置である光学マーカー位置情報を算出する光学マーカー位置情報算出部と、
前記光学マーカー位置情報に基づいて、前記基準対象物に対する測定対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、
前記基準対象物に取り付けられ、かつ、前記光を反射する反射板と、
前記第一画像及び第二画像において光学マーカーが直接撮影されたか、或いは、反射板を介して撮影されたかのいずれであるかを判定した判定結果情報を作成する判定結果情報作成部とを備え、
前記光学マーカー位置情報算出部は、前記判定結果情報と第一画像及び第二画像とに基づいて、前記光学マーカー位置情報を算出することを特徴とするモーショントラッカ装置。
Three or more optical markers attached to the measurement object and emitting light; and
A first camera attached to a reference object and creating a first image by photographing the optical marker; and by photographing the optical marker from a different direction from the first camera at the same time as the first camera photographs. A camera device having a second camera for creating a second image;
An optical marker position information calculating unit that calculates optical marker position information that is a current position of the optical marker with respect to the camera device;
A motion tracker device comprising: a relative information calculation unit that calculates relative information including a current position and a current angle of a measurement object with respect to the reference object based on the optical marker position information;
A reflector attached to the reference object and reflecting the light;
A determination result information creating unit for creating determination result information for determining whether the optical marker is directly photographed in the first image and the second image or photographed via a reflector;
The optical marker position information calculation unit calculates the optical marker position information based on the determination result information, the first image, and the second image.
前記複数個の光学マーカーのうちから選択した少なくとも3個の光学マーカーを点灯させる光学マーカー点灯制御部を備え、
各光学マーカーは、少なくとも3種類の波長の光のうちから予め設定された1種類の波長の光を出射し、
前記光学マーカー点灯制御部は、同時に点灯させる光学マーカーが互いに異なる種類の波長の光を出射するように制御することを特徴とする請求項1に記載のモーショントラッカ装置。
An optical marker lighting control unit for lighting at least three optical markers selected from the plurality of optical markers;
Each optical marker emits light of one kind of preset wavelength from light of at least three kinds of wavelengths,
The motion tracker device according to claim 1, wherein the optical marker lighting control unit controls the optical markers that are simultaneously turned on to emit light of different types of wavelengths.
前記判定結果情報作成部は、前記第一画像及び第二画像中における各光学マーカー像の光強度に基づいて、直接撮影した光学マーカー像であるか、或いは、反射板を介して撮影した光学マーカー像であるかを判定することにより、前記判定結果情報を作成することを特徴とする請求項2に記載のモーショントラッカ装置。 The determination result information creation unit is an optical marker image taken directly based on the light intensity of each optical marker image in the first image and the second image, or an optical marker taken via a reflector The motion tracker device according to claim 2, wherein the determination result information is created by determining whether the image is an image. 前記判定結果情報作成部は、前記第一画像及び第二画像のそれぞれの画像中における各光学マーカー像の位置関係に基づいて、直接撮影した光学マーカー像群であるか、或いは、反射板を介して撮影した光学マーカー像群であるかを判定することにより、前記判定結果情報を作成することを特徴とする請求項2に記載のモーショントラッカ装置。 The determination result information creation unit is a group of optical marker images taken directly based on the positional relationship of the optical marker images in the first image and the second image, or via a reflector. The motion tracker device according to claim 2, wherein the determination result information is created by determining whether the optical marker image group is a photographed image. 前記判定結果情報作成部は、前記第一画像及び第二画像のそれぞれの画像中に座標系を作成して、第一の光学マーカー像から第二の光学マーカー像へのベクトルと、第一の光学マーカー像から第三の光学マーカー像へのベクトルとの外積における符号を算出することにより、直接撮影した光学マーカー像群であるか、或いは、反射板を介して撮影した光学マーカー像群であるかを判定することを特徴とする請求項4に記載のモーショントラッカ装置。 The determination result information creation unit creates a coordinate system in each of the first image and the second image, a vector from the first optical marker image to the second optical marker image, and a first By calculating the sign of the outer product of the vector from the optical marker image to the third optical marker image, it is an optical marker image group directly photographed, or an optical marker image group photographed through a reflector. The motion tracker device according to claim 4, wherein the motion tracker device is determined. 各光学マーカーは、互いに同種類の波長の光を出射し、
前記判定結果情報作成部は、前記第一画像及び第二画像中における各光学マーカー像の光強度に基づいて、直接撮影した光学マーカー像であるか、或いは、反射板を介して撮影した光学マーカー像であるかを判定することにより、前記判定結果情報を作成して、
前記光学マーカー位置情報算出部は、前記判定結果情報に基づいて、前記第一カメラで撮影された各光学マーカー像のエピポーララインを第二画像中に作成することにより、前記光学マーカー位置情報を算出することを特徴とする請求項2に記載のモーショントラッカ装置。
Each optical marker emits light of the same type of wavelength,
The determination result information creation unit is an optical marker image taken directly based on the light intensity of each optical marker image in the first image and the second image, or an optical marker taken via a reflector The determination result information is created by determining whether the image is an image,
The optical marker position information calculation unit calculates the optical marker position information by creating an epipolar line of each optical marker image photographed by the first camera in a second image based on the determination result information. The motion tracker device according to claim 2, wherein:
前記基準対象物は、装着者が搭乗する移動体であり、かつ、前記測定対象物は、当該装着者の頭部に装着される半球状のヘルメットであることを特徴とする請求項1〜6のいずれか1項に記載のモーショントラッカ装置。 The reference object is a moving body on which a wearer rides, and the measurement object is a hemispherical helmet to be worn on the head of the wearer. The motion tracker device according to any one of the above. 前記光学マーカーは、発光ダイオードであることを特徴とする請求項1〜請求項7に記載のモーショントラッカ装置。 The motion tracker device according to claim 1, wherein the optical marker is a light emitting diode.
JP2008137703A 2008-05-27 2008-05-27 Motion tracker device Active JP5262294B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008137703A JP5262294B2 (en) 2008-05-27 2008-05-27 Motion tracker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008137703A JP5262294B2 (en) 2008-05-27 2008-05-27 Motion tracker device

Publications (2)

Publication Number Publication Date
JP2009287933A true JP2009287933A (en) 2009-12-10
JP5262294B2 JP5262294B2 (en) 2013-08-14

Family

ID=41457306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008137703A Active JP5262294B2 (en) 2008-05-27 2008-05-27 Motion tracker device

Country Status (1)

Country Link
JP (1) JP5262294B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03249507A (en) * 1990-02-28 1991-11-07 Mitsubishi Heavy Ind Ltd Three-dimensional shape recognizer
JPH06241741A (en) * 1993-02-23 1994-09-02 Seiko Epson Corp Lead inspection device
JP2003065737A (en) * 2001-08-28 2003-03-05 Topcon Corp System and method for measuring surface shape and system for illustrating surface condition
JP2006010610A (en) * 2004-06-29 2006-01-12 Tokyo Univ Of Science Three-dimensional positioning device and method by monocular vision
JP2006284442A (en) * 2005-04-01 2006-10-19 Shimadzu Corp Method of monitoring object and motion tracker using this
JP2007071782A (en) * 2005-09-08 2007-03-22 Canon Inc System for measuring position attitude and method of measuring, same and control program
JP2008065416A (en) * 2006-09-05 2008-03-21 Shimadzu Corp Head motion tracker device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03249507A (en) * 1990-02-28 1991-11-07 Mitsubishi Heavy Ind Ltd Three-dimensional shape recognizer
JPH06241741A (en) * 1993-02-23 1994-09-02 Seiko Epson Corp Lead inspection device
JP2003065737A (en) * 2001-08-28 2003-03-05 Topcon Corp System and method for measuring surface shape and system for illustrating surface condition
JP2006010610A (en) * 2004-06-29 2006-01-12 Tokyo Univ Of Science Three-dimensional positioning device and method by monocular vision
JP2006284442A (en) * 2005-04-01 2006-10-19 Shimadzu Corp Method of monitoring object and motion tracker using this
JP2007071782A (en) * 2005-09-08 2007-03-22 Canon Inc System for measuring position attitude and method of measuring, same and control program
JP2008065416A (en) * 2006-09-05 2008-03-21 Shimadzu Corp Head motion tracker device

Also Published As

Publication number Publication date
JP5262294B2 (en) 2013-08-14

Similar Documents

Publication Publication Date Title
JP5594944B2 (en) Motion tracker device
US7369101B2 (en) Calibrating real and virtual views
CN110658914B (en) Scintillation tracking of boundary regions
US10948283B1 (en) Tileable structured light projection system
US10634918B2 (en) Internal edge verification
US20190212482A1 (en) Angle selective filter for near eye displays
JP2008058102A (en) Head motion tracker device
JP4924342B2 (en) Motion tracker device
JP5505363B2 (en) Motion tracker device
JP5292725B2 (en) Motion tracker device
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP2016151566A (en) Motion tracker device
JP2009036517A (en) Head motion tracker device
JP4905311B2 (en) Head motion tracker system and calibration device used therefor
JP4967546B2 (en) Head motion tracker device
JP4905321B2 (en) Head motion tracker device
JP4872768B2 (en) Head motion tracker device
JP2014095557A (en) Motion tracker device
JP4656016B2 (en) Motion tracker device
JP5262294B2 (en) Motion tracker device
JP4784591B2 (en) Motion tracker device
JP4656017B2 (en) Head motion tracker device
JP4877138B2 (en) Head motion tracker device
JP5560600B2 (en) Head motion tracker device
JP2007334762A (en) Head motion tracker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R151 Written notification of patent or utility model registration

Ref document number: 5262294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151