JP2009287933A - Motion tracker device - Google Patents
Motion tracker device Download PDFInfo
- Publication number
- JP2009287933A JP2009287933A JP2008137703A JP2008137703A JP2009287933A JP 2009287933 A JP2009287933 A JP 2009287933A JP 2008137703 A JP2008137703 A JP 2008137703A JP 2008137703 A JP2008137703 A JP 2008137703A JP 2009287933 A JP2009287933 A JP 2009287933A
- Authority
- JP
- Japan
- Prior art keywords
- image
- optical marker
- camera
- determination result
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、光学方式のモーショントラッカ装置(以下、「MT装置」ともいう)に関し、例えば、ゲーム機や乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度(すなわち、ゲーム機や乗物等における装着者の頭部の現在位置及び現在角度)を測定するヘッドモーショントラッカ装置(以下、「HMT装置」ともいう)等に利用される。 The present invention relates to an optical motion tracker device (hereinafter also referred to as an “MT device”), for example, a current position and a current angle of a helmet with a head-mounted display device used in a game machine, a vehicle, etc. This is used for a head motion tracker device (hereinafter also referred to as “HMT device”) or the like that measures a wearer's head current position and current angle in a machine, a vehicle, or the like.
時々刻々と変動する物体(測定対象物)の現在位置や現在角度を正確に測定する技術は、様々な分野で利用されている。例えば、ゲーム機では、バーチャルリアリティ(VR)を実現するために、頭部装着型表示装置付ヘルメットを用いることにより、映像を表示することがなされている。このとき、頭部装着型表示装置付ヘルメットの現在位置や現在角度に合わせて、映像を変化させる必要がある。そこで、頭部装着型表示装置付ヘルメット(測定対象物)の現在位置や現在角度を測定するために、HMT装置が利用されている。
また、救難飛行艇による救難活動では、発見した救難目標を見失うことがないようにするため、頭部装着型表示装置付ヘルメットのバイザーに表示される照準画像と、バイザーを通して視認される救難目標とが対応した時にロックすることにより、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体(救難飛行艇)の緯度、経度、高度、姿勢に加えて、飛行体に対するパイロットの頭部の現在位置や現在角度を測定している。
Techniques for accurately measuring the current position and current angle of an object (measurement target) that changes every moment are used in various fields. For example, in a game machine, an image is displayed by using a helmet with a head-mounted display device in order to realize virtual reality (VR). At this time, it is necessary to change the image in accordance with the current position and the current angle of the head mounted display-equipped helmet. Therefore, an HMT device is used to measure the current position and current angle of the head-mounted helmet with a display device (measurement object).
Also, in the rescue operation by the rescue flying boat, in order not to lose sight of the found rescue target, the aiming image displayed on the visor of the helmet with a head-mounted display device, the rescue target visually recognized through the visor, The position of the locked rescue target is calculated by locking when responding. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude and attitude of the flying object (rescue flying boat), the current position and angle of the pilot's head relative to the flying object are measured. Yes.
このような頭部装着型表示装置付ヘルメットに利用されるHMT装置としては、光学的に頭部装着型表示装置付ヘルメットの現在位置や現在角度を測定するものが開示されている。図2は、頭部装着型表示装置付ヘルメットの一例の斜視図であり、図8は、図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す斜視図である。
具体的には、頭部装着型表示装置付ヘルメット10の外周面上に、光学マーカー群7として発光体であるLED(発光ダイオード)7a〜7kを互いに離隔するようにして複数箇所に取り付け、これらのLED7a〜7kの頭部装着型表示装置付ヘルメット(X’Y’Z’座標系)上における位置をHMT装置に予め記憶させておく。そして、これらのLED7a〜7kを、飛行体(基準対象物)の座席30aの上部に固定されたカメラ装置2(第一カメラ2a、第二カメラ2b)で同時に撮影することで、所謂、三角測量の原理により、現在の少なくとも3個のLEDとカメラ装置2との位置関係を測定している。これにより、頭部装着型表示装置付ヘルメット10上に固定された3点の位置(3個のLEDの位置)を特定することで、飛行体に対する頭部装着型表示装置付ヘルメット10の現在位置や現在角度を算出している。
ところで、上述したような光学方式のHMT装置で、3個のLEDとカメラ装置2との位置関係を測定するためには、3個のLEDをそれぞれ識別する必要がある。そこで、頭部装着型表示装置付ヘルメット10には、それぞれが識別可能なLED7a〜7kが取り付けられている。例えば、図2に示すように、頭部装着型表示装置付ヘルメット10の外周面上に、互いに異なる波長A、B、Cの赤外光を出射するLEDが取り付けられている。
As an HMT device used for such a helmet with a head-mounted display device, an apparatus that optically measures the current position and current angle of the helmet with a head-mounted display device is disclosed. FIG. 2 is a perspective view of an example of a helmet with a head-mounted display device, and FIG. 8 is a perspective view showing a positional relationship between the helmet with a head-mounted display device and the camera device shown in FIG.
Specifically, on the outer peripheral surface of the
By the way, in order to measure the positional relationship between the three LEDs and the camera device 2 using the optical HMT device as described above, it is necessary to identify the three LEDs. Therefore,
また、本出願人は、頭部装着型表示装置付ヘルメットに取り付けられた複数個のLEDをそれぞれ識別する際に、LEDに識別情報を持たせたり、1個1個順番に点灯させたりしなくても、LEDをそれぞれ識別することができるものを開示した(例えば、特許文献1参照)。
具体的には、まず、第一カメラ2aの撮影方向と第二カメラ2bの撮影方向とが定まった状態であるので、エピポーラ幾何学に基づく予測により、第一カメラ2aで撮影された第一画像と、第二カメラ2bで撮影された第二画像との間での共通のLED像の組を認識した。
そして、第一画像中に映し出された複数個のLED像と、第二画像中に映し出された複数個のLED像とのそれぞれの組の対応付けを行った後には、第一画像中に映し出されているLED像の位置により、第一カメラ2aからの方向角度αを算出するとともに、第二画像中に映し出されているLED像の位置により、第二カメラ2bからの方向角度βとを算出し、さらに第一カメラ2aと第二カメラ2bとの間の距離dを用いることで、所謂、三角測量の手法でカメラ装置2(XYZ座標系)に対するLEDの位置を算出する(図4参照)。なお、このとき算出されたLEDが、頭部装着型表示装置付ヘルメットに取り付けられたLEDのいずれに対応するかはまだ認識できない。
そこで、時間t1(直前)に各LEDの位置を記憶するとともに、記憶された各LEDの位置を中心とする一定の大きさの球状である各予想移動範囲を設定することにより、時間t2(現在)に予想移動範囲に存在するLEDを、時間t1に設定された予想移動範囲に対応するLEDと同一のものであると識別した。
これにより、カメラ装置2(XYZ座標系)に対する頭部装着型表示装置付ヘルメットの現在位置や現在角度を算出している。
Specifically, first, since the shooting direction of the
Then, after associating each group of the plurality of LED images projected in the first image and the plurality of LED images projected in the second image, they are projected in the first image. The direction angle α from the
Therefore, by storing the position of each LED at time t1 (immediately before) and setting each expected movement range that is a spherical shape of a certain size centered on the stored position of each LED, time t2 (currently ) In the expected movement range is identified as the same LED corresponding to the expected movement range set at time t1.
Thereby, the current position and the current angle of the helmet with a head mounted display device with respect to the camera device 2 (XYZ coordinate system) are calculated.
ところで、上述したようなHMT装置で、カメラ装置2に対する頭部装着型表示装置付ヘルメット10の現在位置や現在角度を特定するためには、三角測量の原理を用いるため、第一カメラ2aにより撮影される撮影領域と第二カメラ2bにより撮影される撮影領域とが重なった撮影領域に、少なくとも同一の3個のLEDが存在していなければならなかった(図8参照)。そこで、図2に示すように、頭部装着型表示装置付ヘルメット10の外周面全面にLED7a〜7kが取り付けられている。
By the way, in order to specify the current position and the current angle of the head mounted
しかしながら、頭部装着型表示装置付ヘルメット10の外周面全面にLED7a〜7kが取り付けられていても、第一カメラ2aと第二カメラ2bとで、同一の3個のLEDを撮影することができないことがあった。例えば、図9に示すように、第二カメラ2bでは、頭部装着型表示装置付ヘルメット10を装着したパイロットが右側に体を寄せながら右側を見たときには、3個未満のLEDしか撮影することができなかった。すなわち、カメラ装置2に対する頭部装着型表示装置付ヘルメット10の現在位置や現在角度を算出することができなかった。
そこで、本発明は、飛行体等の基準対象物に対して、頭部装着型表示装置付ヘルメット等の測定対象物があらゆる方向に向いても、基準対象物に対する測定対象物の動きを測定することができるモーショントラッカ装置を提供することを目的とする。
However, even if the
Therefore, the present invention measures the movement of the measurement object relative to the reference object even when the measurement object such as the head-mounted display-equipped helmet is directed in any direction with respect to the reference object such as the flying object. An object of the present invention is to provide a motion tracker device that can perform the above-described operation.
上記課題を解決するためになされた本発明のモーショントラッカ装置は、測定対象物に取り付けられ、光を出射する3個以上の光学マーカーと、基準対象物に取り付けられ、かつ、前記光学マーカーを撮影することにより第一画像を作成する第一カメラと、前記第一カメラが撮影すると同時に第一カメラと異なる方向から光学マーカーを撮影することにより第二画像を作成する第二カメラとを有するカメラ装置と、前記カメラ装置に対する光学マーカーの現在位置である光学マーカー位置情報を算出する光学マーカー位置情報算出部と、前記光学マーカー位置情報に基づいて、前記基準対象物に対する測定対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、前記基準対象物に取り付けられ、かつ、前記光を反射する反射板と、前記第一画像及び第二画像において光学マーカーが直接撮影されたか、或いは、反射板を介して撮影されたかのいずれであるかを判定した判定結果情報を作成する判定結果情報作成部とを備え、前記光学マーカー位置情報算出部は、前記判定結果情報と第一画像及び第二画像とに基づいて、前記光学マーカー位置情報を算出するようにしている。 The motion tracker device of the present invention, which has been made to solve the above-mentioned problems, is attached to a measurement object, and is provided with three or more optical markers that emit light and attached to a reference object, and images the optical marker. And a second camera that creates a second image by photographing an optical marker from a different direction from the first camera at the same time as the first camera photographs. An optical marker position information calculation unit that calculates optical marker position information that is a current position of the optical marker with respect to the camera device, and based on the optical marker position information, a current position and a current position of the measurement object with respect to the reference object A motion tracker device comprising a relative information calculation unit for calculating relative information including an angle, wherein the reference object A determination result for determining whether the optical marker is directly photographed in the reflection plate attached and reflecting the light, and the first image and the second image, or photographed through the reflection plate. A determination result information creation unit that creates information, and the optical marker position information calculation unit calculates the optical marker position information based on the determination result information, the first image, and the second image. Yes.
ここで、「光学マーカーが出射する光」としては、赤外光や紫外光や可視光が挙げられる。
本発明のモーショントラッカ装置によれば、測定対象物に複数個の光学マーカーを互いに離隔するようにして取り付けるとともに、測定対象物における複数個の光学マーカーの位置を予め記憶させておく。また、基準対象物にカメラ装置と反射板とを取り付けるとともに、基準対象物におけるカメラ装置と反射板との相対的な位置関係を予め記憶させておく。
そして、カメラ装置がこれらの複数個の光学マーカーのうち少なくとも3個の光学マーカーを撮影することで、所謂、三角測量の原理により、少なくとも3個の光学マーカーとカメラ装置との位置関係を測定する。このとき、例えば、飛行体(基準対象物)の座席の上部に設置されたカメラ装置において、ヘルメット(測定対象物)を装着した装着者が正面を見ている際には、第一カメラと第二カメラとで3個の光学マーカーを直接撮影する。一方、ヘルメットを装着した装着者が右側に体を寄せながら右側を見ている際には、第一カメラでは3個の光学マーカーを直接撮影し、第二カメラでは3個の光学マーカーを直接撮影することができないが、3個の光学マーカーを反射板を介して撮影する。
なお、第一画像及び第二画像において光学マーカーを直接撮影したか、或いは、反射板を介して撮影したかのいずれであるかを判定する必要があるが、本発明のモーショントラッカ装置では、判定結果情報作成部が、例えば、第一画像及び第二画像中における各光学マーカー像の光強度や、各光学マーカー像の位置関係等に基づいて判定する。
これにより、光学マーカー位置情報算出部は、判定結果情報と第一画像及び第二画像とに基づいて、測定対象物に取り付けられた3点の位置(3個の光学マーカーの位置)を特定することで、基準対象物に対する測定対象物の現在位置や現在角度を算出する。
Here, examples of the “light emitted from the optical marker” include infrared light, ultraviolet light, and visible light.
According to the motion tracker device of the present invention, a plurality of optical markers are attached to the measurement object so as to be separated from each other, and the positions of the plurality of optical markers on the measurement object are stored in advance. In addition, the camera device and the reflector are attached to the reference object, and the relative positional relationship between the camera device and the reflector on the reference object is stored in advance.
Then, the camera device photographs at least three of the plurality of optical markers, and measures the positional relationship between the at least three optical markers and the camera device according to the so-called triangulation principle. . At this time, for example, in the camera device installed on the upper part of the seat of the flying object (reference object), when the wearer wearing the helmet (measurement object) is looking in front, Take three optical markers directly with two cameras. On the other hand, when a wearer wearing a helmet is looking at the right side while moving his body to the right side, the first camera directly shoots three optical markers, and the second camera directly shoots three optical markers. Although not possible, the three optical markers are photographed through the reflector.
Note that it is necessary to determine whether the optical marker is directly photographed in the first image and the second image or photographed via the reflector, but in the motion tracker device of the present invention, the determination is made. The result information creation unit makes a determination based on, for example, the light intensity of each optical marker image in the first image and the second image, the positional relationship of each optical marker image, and the like.
Accordingly, the optical marker position information calculation unit specifies the positions of the three points attached to the measurement target (positions of the three optical markers) based on the determination result information, the first image, and the second image. Thus, the current position and the current angle of the measurement object with respect to the reference object are calculated.
以上のように、本発明のモーショントラッカ装置によれば、飛行体等の基準対象物に対して、頭部装着型表示装置付ヘルメット等の測定対象物があらゆる方向に向いても、基準対象物に対する測定対象物の動きを測定することができる。 As described above, according to the motion tracker device of the present invention, even if the measurement object such as the helmet with a head-mounted display device is directed in any direction with respect to the reference object such as the flying object, the reference object The movement of the object to be measured can be measured.
(他の課題を解決するための手段および効果)
また、上記の発明において、前記複数個の光学マーカーのうちから選択した少なくとも3個の光学マーカーを点灯させる光学マーカー点灯制御部を備え、各光学マーカーは、少なくとも3種類の波長の光のうちから予め設定された1種類の波長の光を出射し、前記光学マーカー点灯制御部は、同時に点灯させる光学マーカーが互いに異なる種類の波長の光を出射するように制御するようにしてもよい。
本発明によれば、3個の光学マーカーを波長差によりそれぞれ識別することができる。
(Means and effects for solving other problems)
Further, in the above invention, an optical marker lighting control unit for lighting at least three optical markers selected from the plurality of optical markers is provided, and each optical marker is selected from light of at least three types of wavelengths. Light of one type of wavelength set in advance may be emitted, and the optical marker lighting control unit may perform control so that the optical markers that are simultaneously turned on emit light of different types of wavelengths.
According to the present invention, the three optical markers can be identified by the wavelength difference.
また、上記の発明において、前記判定結果情報作成部は、前記第一画像及び第二画像中における各光学マーカー像の光強度に基づいて、直接撮影した光学マーカー像であるか、或いは、反射板を介して撮影した光学マーカー像であるかを判定することにより、前記判定結果情報を作成するようにしてもよい。
また、上記の発明において、前記判定結果情報作成部は、前記第一画像及び第二画像のそれぞれの画像中における各光学マーカー像の位置関係に基づいて、直接撮影した光学マーカー像群であるか、或いは、反射板を介して撮影した光学マーカー像群であるかを判定することにより、前記判定結果情報を作成するようにしてもよい。
また、上記の発明において、前記判定結果情報作成部は、前記第一画像及び第二画像のそれぞれの画像中に座標系を作成して、第一の光学マーカー像から第二の光学マーカー像へのベクトルと、第一の光学マーカー像から第三の光学マーカー像へのベクトルとの外積における符号を算出することにより、直接撮影した光学マーカー像群であるか、或いは、反射板を介して撮影した光学マーカー像群であるかを判定するようにしてもよい。
Further, in the above invention, the determination result information creation unit is an optical marker image taken directly based on a light intensity of each optical marker image in the first image and the second image, or a reflection plate The determination result information may be created by determining whether the image is an optical marker image photographed via the.
In the above invention, is the determination result information creation unit an optical marker image group directly captured based on a positional relationship of the optical marker images in the first image and the second image? Alternatively, the determination result information may be created by determining whether the optical marker image group is photographed through a reflecting plate.
In the above invention, the determination result information creation unit creates a coordinate system in each of the first image and the second image, and changes from the first optical marker image to the second optical marker image. By calculating the sign of the outer product of the vector of the first vector and the vector from the first optical marker image to the third optical marker image, or a group of directly photographed optical marker images or photographed via a reflector It may be determined whether the optical marker image group has been selected.
また、上記の発明において、各光学マーカーは、互いに同種類の波長の光を出射し、前記判定結果情報作成部は、前記第一画像及び第二画像中における各光学マーカー像の光強度に基づいて、直接撮影した光学マーカー像であるか、或いは、反射板を介して撮影した光学マーカー像であるかを判定することにより、前記判定結果情報を作成して、前記光学マーカー位置情報算出部は、前記判定結果情報に基づいて、前記第一カメラで撮影された各光学マーカー像のエピポーララインを第二画像中に作成することにより、前記光学マーカー位置情報を算出するようにしてもよい。
本発明によれば、各光学マーカーに識別情報を持たせたり、1個1個順番に点灯させたりしなくても、各光学マーカーをそれぞれ識別することができる。
In the above invention, each optical marker emits light of the same type of wavelength, and the determination result information creation unit is based on the light intensity of each optical marker image in the first image and the second image. The optical marker position information calculating unit creates the determination result information by determining whether the optical marker image is a direct image or an optical marker image captured through a reflector. Based on the determination result information, the optical marker position information may be calculated by creating an epipolar line of each optical marker image photographed by the first camera in the second image.
According to the present invention, it is possible to identify each optical marker without giving identification information to each optical marker or without lighting each one in turn.
そして、上記の発明において、前記基準対象物は、装着者が搭乗する移動体であり、かつ、前記測定対象物は、当該装着者の頭部に装着される半球状のヘルメットであるようにしてもよい。
さらに、上記の発明において、前記光学マーカーは、発光ダイオードであるようにしてもよい。
In the above invention, the reference object is a moving body on which a wearer rides, and the measurement object is a hemispherical helmet mounted on the head of the wearer. Also good.
Furthermore, in the above invention, the optical marker may be a light emitting diode.
以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and it goes without saying that various aspects are included without departing from the spirit of the present invention.
図1は、本発明の一実施形態であるHMT装置の概略構成の一例を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメット(測定対象物)の一例の斜視図である。また、図3及び図5は、図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す斜視図であり、図4及び図6は、図2に示す頭部装着型表示装置付ヘルメットとカメラ装置との位置関係を示す平面図である。
本実施形態は、搭乗体(基準対象物)30に搭乗するパイロット3の頭部の搭乗体30に対する現在位置及び現在角度を算出するものである。つまり、HMT装置1は、搭乗体30に設定された相対座標系(XYZ座標系)に対する、パイロット3が装着する頭部装着型表示装置付ヘルメット10に設定されたヘルメット座標系(X’Y’Z’座標系)の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を含む相対情報を算出するものである。なお、相対座標系(XYZ座標系)は、後述するカメラ装置2を基準として制御部20に予め記憶されており、一方、ヘルメット座標系(X’Y’Z’座標系)は、後述するLED群7を基準として制御部20に予め記憶されている。また、角度(Θ)は、ロール方向(X軸に対する回転)の角度であり、角度(Φ)は、エレベーション方向(Y軸に対する回転)の角度であり、角度(Ψ)は、アジマス方向(Z軸に対する回転)の角度である。
FIG. 1 is a diagram showing an example of a schematic configuration of an HMT device according to an embodiment of the present invention, and FIG. 2 is a perspective view of an example of a helmet with a head-mounted display device (measurement object) shown in FIG. FIG. 3 and 5 are perspective views showing the positional relationship between the helmet with a head-mounted display device shown in FIG. 2 and the camera device, and FIGS. 4 and 6 show the head-mounted type shown in FIG. It is a top view which shows the positional relationship of a helmet with a display apparatus and a camera apparatus.
In the present embodiment, the current position and the current angle of the head of the
HMT装置1は、パイロット3の頭部に装着される頭部装着型表示装置付ヘルメット10と、搭乗体30の座席30aの上部に取り付けられたカメラ装置2(2a、2b)と、搭乗体30の前面に取り付けられた赤外光を反射する反射板5(5a、5b)と、コンピュータにより構成される制御部20とから構成される。
搭乗体30は、パイロット3が搭乗する飛行体のコックピットであり、パイロット3が着席する座席30aを備える。
The HMT device 1 includes a head mounted
The mounted
頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、パイロット3の目に導くバイザー8と、半球状のヘルメット9と、頭部の現在位置(X、Y、Z)や現在角度(Θ、Φ、Ψ)を測定する際の指標として機能するLED群(光学マーカー群)7とを有する。なお、頭部装着型表示装置付ヘルメット10を装着したパイロット3は、表示器による表示映像とバイザー8の前方実在物とを視認することが可能となっている。
LED群7は、図2に示すように、複数個のLED7a〜7kがヘルメット9の外周面全面に取り付けられている。
ここで、ヘルメット座標系(X’Y’Z’座標系)について説明する。ヘルメット座標系(X’Y’Z’座標系)における原点位置O’及びX’Y’Z’軸方向を任意に定めることができるが、本実施形態では図2に示すように、原点O’を定義し、前方方向をX’軸方向とし、前方方向に垂直方向をY’軸方向とし、X’軸方向及びY’軸方向に垂直方向をZ’軸方向とするように定義するように、後述するヘルメット座標系記憶領域42に予め記憶させている。また、ヘルメット座標系(X’Y’Z’座標系)上での複数個のLED7a〜7kの位置(x’、y’、z’)も、ヘルメット座標系記憶領域42に予め記憶させている。
また、LED7a、7d、7g、7jは、波長Aの赤外光を出射し、LED7b、7e、7h、7kは、波長Bの赤外光を出射し、LED7c、7f,7iは、波長Cの赤外光を出射する。つまり、各LEDは、3種類の波長A、B、Cの赤外光のうちから予め設定された1種類の波長の赤外光を出射する。これにより、後述する光学マーカー点灯制御部31が、複数個のLED7a〜7kのうちから選択した3個のLEDを点灯させる際に、同時に点灯させる3個のLEDが互いに異なる種類の波長A、B、Cの赤外光を出射するように制御することができるようになっている。
The
As shown in FIG. 2, the
Here, the helmet coordinate system (X′Y′Z ′ coordinate system) will be described. Although the origin position O ′ and the X′Y′Z ′ axis direction in the helmet coordinate system (X′Y′Z ′ coordinate system) can be arbitrarily determined, in this embodiment, as shown in FIG. And the forward direction is defined as the X′-axis direction, the forward direction is defined as the Y′-axis direction, and the vertical direction is defined as the X′-axis direction and the Y′-axis direction as the Z′-axis direction. These are stored in advance in a helmet coordinate
The
カメラ装置2は、第一カメラ2aと第二カメラ2bとからなり、撮影方向が頭部装着型表示装置付ヘルメット10に向けられているとともに、頭部装着型表示装置付ヘルメット10の立体視が可能な一定の距離dを隔てるように、搭乗体30の座席30aの上部に設置されている。そして、第一カメラ2aで第一画像15が作成されるとともに、第二カメラ2bで第二画像16が作成される。
これにより、図4に示すように、第一カメラ2aでLED7cが直接撮影されたときには、第一画像15中に映し出されているLED像の位置により、第一カメラ2aからの方向角度αを算出し、第二カメラ2bでLED7cが直接撮影されているときには、第二画像16中に映し出されているLED像の位置により、第二カメラ2bからの方向角度βを算出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることにより、所謂、三角測量の手法でカメラ装置2に対するLED7cの位置を算出できるようになっている。
このとき、LED7cの位置を空間座標で表現するために、カメラ装置2に固定された座標系である相対座標系(XYZ座標系)を用いる。
ここで、相対座標系(XYZ座標系)について説明する。相対座標系(XYZ座標系)における原点位置O及びXYZ軸方向を任意に定めることができるが、本実施形態では図4及び図6に示すように、第一カメラ2aから第二カメラ2bへの方向をY軸方向とし、Y軸方向に垂直かつ天井に垂直で上向き方向をZ軸方向とし、Y軸方向及びZ軸方向に垂直かつ前方方向をX軸方向とするように定義し、原点Oを第一カメラ2aと第二カメラ2bとの中点として定義するように相対座標系記憶領域41に予め記憶させている。
よって、本実施形態では、このような相対座標系(XYZ座標系)がカメラ装置2に予め設定されているので、LED7cの現在位置は、相対座標系(XYZ座標系)上での位置(x、y、z)で表現される。そして、このようにして3個のLEDの現在位置(x、y、z)が特定されるので、ヘルメット座標系(X’Y’Z’座標系)上での複数個のLED7a〜7kの位置(x’、y’、z’)である初期データを参照することで、頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)は、相対座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の現在位置及び現在角度を用いて表現されるようになっている。
The camera device 2 is composed of a
Accordingly, as shown in FIG. 4, when the
At this time, a relative coordinate system (XYZ coordinate system), which is a coordinate system fixed to the camera device 2, is used to express the position of the
Here, the relative coordinate system (XYZ coordinate system) will be described. Although the origin position O and the XYZ axis directions in the relative coordinate system (XYZ coordinate system) can be arbitrarily determined, in this embodiment, as shown in FIGS. 4 and 6, the
Therefore, in the present embodiment, such a relative coordinate system (XYZ coordinate system) is set in the camera device 2 in advance, so that the current position of the
反射板5は、平板形状の第一反射板5aと、平板形状の第二反射板5bとからなり、LED群7から出射された赤外光を反射する。なお、上記反射板としては、例えば、赤外光を反射するとともに、可視光を透過する性質の誘電体多層膜等で形成されたものが挙げられる。
第一反射板5aは、その反射面が第一カメラ2aに向けられているとともに、第一カメラ2aに撮影されるように、搭乗体30の前面に設置されている。第二反射板5bは、その反射面が第二カメラ2bに向けられているとともに、第二カメラ2bに撮影されるように、搭乗体30の前面に設置されている。
そして、LED群7から出射された赤外光の光強度(輝度)は、カメラ装置2に直接導かれたときと比較して、カメラ装置2に反射板5を介して導かれたときには、弱くなるようになっている。これにより、後述する判定結果情報作成部34が、第一画像15及び第二画像16中に映し出されているLED像の光強度により、LEDを直接撮影したか、或いは、反射板5を介して撮影したかのいずれであるかを判定することができるようになっている。また、LEDを直接撮影したか、或いは、反射板5を介して撮影したかのいずれであるかを判定しているので、図5及び図6に示すように、第一カメラ2aでLED7aが直接撮影されたと判定したときには、第一画像15中に映し出されているLED像の位置により、第一カメラ2aからの方向角度αを算出し、第二カメラ2bでLED7aが第二反射板5bを介して撮影されたと判定したときには、第二画像16中に映し出されているLED像の位置により、第二カメラ2bからの方向角度γと第二反射板5bからの方向角度δとを算出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることにより、カメラ装置2に対するLED7aの位置を算出できるようになっている。すなわち、相対座標系(XYZ座標系)上でのLED7aの位置(x、y、z)を算出できるようになっている。
The reflection plate 5 includes a flat plate-shaped
The first reflecting
The light intensity (luminance) of infrared light emitted from the
制御部20は、CPU21、メモリ40等からなるコンピュータにより構成され、各種の制御や演算処理を行うものである。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、LED7a〜7kを点灯させる光学マーカー点灯制御部31と、光学マーカー位置情報算出部32と、相対情報算出部33と、判定結果情報作成部34と、映像表示部35とを有する。
また、メモリ40には、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、相対座標系(XYZ座標系)と反射板5の位置(x、y、z)を記憶する相対座標系記憶領域41と、ヘルメット座標系(X’Y’Z’座標系)とLED7a〜7kの位置(x’、y’、z’)とを記憶するヘルメット座標系記憶領域42とを有する。
The
The
光学マーカー点灯制御部31は、複数個のLED7a〜7kのうちから選択した3個のLEDを点灯させる制御を行う。なお、複数個のLED7a〜7kのうちから選択した3個のLEDを点灯させる際には、同時に点灯させる3個のLEDが互いに異なる種類の波長A、B、Cの赤外光を出射するように制御する。例えば、図2に示すように、LED7cから波長Aの赤外光を出射させ、LED7dから波長Bの赤外光を出射させ、LED7eから波長Cの赤外光を出射させる。これにより、第一画像15及び第二画像16中に映し出されているLED像が、どのLEDの画像であるかを識別することができるようになっている。
The optical marker
判定結果情報作成部34は、第一画像15及び第二画像16中における各LED像の光強度に基づいて、直接撮影したLED像であるか、或いは、反射板5を介して撮影したLED像であるかを判定することにより、第一画像15及び第二画像16においてLEDが直接撮影されたか、或いは、反射板5を介して撮影されたかのいずれであるかを判定した判定結果情報を作成する制御を行う。
具体的には、直接撮影したLED像であるか、或いは、反射板5を介して撮影したLED像であるかを判定するための光強度(輝度)の閾値Athを予め記憶させておき、第一画像15中における1個のLED像の光強度(輝度)Aが、光強度の閾値Ath以上であるときには、直接撮影したLED像であると判定し、一方、LED像の光強度Aが、光強度の閾値Ath未満であるときには、第一反射板5aを介して撮影したLED像であると判定する。同様に、第一画像15中における他のLED像の光強度Aや、第二画像16中におけるLED像の光強度Aについても判定していく。
Based on the light intensity of each LED image in the
Specifically, a threshold value Ath of light intensity (luminance) for determining whether the LED image is a directly captured LED image or an LED image captured via the reflector 5 is stored in advance. When the light intensity (luminance) A of one LED image in the
光学マーカー位置情報算出部32は、判定結果情報と第一画像15及び第二画像16とに基づいて、相対座標系(XYZ座標系)上でのLEDの現在位置(x、y、z)である光学マーカー位置情報を算出する制御を行う。
例えば、図4に示すように、第一カメラ2aでLED7cが直接撮影されたと判定されたときには、第一画像15中に映し出されている波長CのLED像の位置により、第一カメラ2aからの方向角度αを算出し、第二カメラ2bでLED7cが直接撮影されたと判定されたときには、第二画像16中に映し出されている波長CのLED像の位置により、第二カメラ2bからの方向角度βを算出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることで、相対座標系(XYZ座標系)上でのLED7cの現在位置(x、y、z)を算出する。
また、図6に示すように、第一カメラ2aでLED7aが直接撮影されたと判定されたときには、第一画像15中に映し出されている波長AのLED像の位置により、第一カメラ2aからの方向角度αを算出し、第二カメラ2bでLED7aが第二反射板5bを介して撮影されたと判定されたときには、第二画像16中に映し出されている波長AのLED像の位置により、第二カメラ2bからの方向角度γと第二反射板5bからの方向角度δとを算出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることで、相対座標系(XYZ座標系)上でのLED7aの現在位置(x、y、z)を算出する。
このようにして3個のLEDの現在位置(x、y、z)を算出して、光学マーカー位置情報を算出する。
Based on the determination result information and the
For example, as shown in FIG. 4, when it is determined that the
Further, as shown in FIG. 6, when it is determined that the
In this way, the current position (x, y, z) of the three LEDs is calculated, and the optical marker position information is calculated.
相対情報算出部33は、光学マーカー位置情報に基づいて、相対座標系(XYZ座標系)に対する頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を含む相対情報を算出する制御を行う。
具体的には、3個のLEDの現在位置(x、y、z)が特定されるので、ヘルメット座標系(X’Y’Z’座標系)上での複数個のLED7a〜7kの位置(x’、y’、z’)である初期データを参照することで、頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を算出する。
映像表示部35は、相対情報に基づいて、表示器から映像表示光を出射する制御を行う。これにより、パイロット3は、表示器による表示映像を視認する。
Based on the optical marker position information, the relative
Specifically, since the current positions (x, y, z) of the three LEDs are specified, the positions of the plurality of
The
次に、HMT装置1により、搭乗体30に設定された相対座標系(XYZ座標系)に対する、パイロット3が装着する頭部装着型表示装置付ヘルメット10に設定されたヘルメット座標系(X’Y’Z’座標系)の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を測定する測定動作について説明する。図7は、HMT装置1による測定動作について説明するためのフローチャートである。
まず、ステップS101の処理において、光学マーカー点灯制御部31は、複数個のLED7a〜7kのうちから選択した3個のLEDを点灯させる。
次に、ステップS102の処理において、第一カメラ2a及び第二カメラ2bは、LEDを同時に撮影して、第一画像15及び第二画像16を作成する。
Next, the helmet coordinate system (X′Y) set in the
First, in the process of step S101, the optical marker
Next, in the process of step S <b> 102, the
次に、ステップS103の処理において、第一画像15及び第二画像16中における各LED像の光強度に基づいて、直接撮影したLED像であるか、或いは、反射板5を介して撮影したLED像であるかを判定することにより、判定結果情報を作成する。
次に、ステップS104の処理において、光学マーカー位置情報算出部32は、判定結果情報と第一画像15及び第二画像16とに基づいて、相対座標系(XYZ座標系)上でのLEDの現在位置(x、y、z)である光学マーカー位置情報を算出する。
次に、ステップS105の処理において、相対情報算出部33は、光学マーカー位置情報に基づいて、相対座標系(XYZ座標系)に対する頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)及び現在角度(Θ、Φ、Ψ)を含む相対情報を算出する。
Next, in the process of step S103, based on the light intensity of each LED image in the
Next, in the processing of step S104, the optical marker position
Next, in the process of step S105, the relative
次に、ステップS106の処理において、映像表示部35は、相対情報に基づいて、表示器から映像表示光を出射する。
次に、ステップS107の処理において、測定を終了するか否かを判定する。測定を終了しないと判定されたときには、ステップS101の処理に戻る。つまり、測定を終了すると判定されるときまで、ステップS101〜ステップS106の処理は繰り返される。
そして、測定を終了すると判定されたときには、本フローチャートを終了させる。
Next, in the process of step S106, the
Next, in step S107, it is determined whether or not to end the measurement. If it is determined not to end the measurement, the process returns to step S101. That is, the processes in steps S101 to S106 are repeated until it is determined to end the measurement.
When it is determined that the measurement is to be finished, this flowchart is finished.
以上のように、HMT装置1によれば、搭乗体30に対して、頭部装着型表示装置付ヘルメット10があらゆる方向に向いても、搭乗体30に対する頭部装着型表示装置付ヘルメット10の動きを測定することができる。
As described above, according to the HMT device 1, even if the
(他の実施形態)
(1)上述したHMT装置1では、判定結果情報作成部34は、第一画像15及び第二画像16中における各LED像の光強度に基づいて、直接撮影したLED像であるか、或いは、反射板5を介して撮影したLED像であるかを判定する構成としたが、第一画像及び第二画像のそれぞれの画像中に座標系を作成して、第一のLED像から第二のLED像へのベクトルと、第一のLED像から第三のLED像へのベクトルとの外積における符号を算出することにより、直接撮影したLED像群であるか、或いは、反射板を介して撮影したLED像群であるかを判定するような構成としてもよい。このとき、直接撮影したLED像群であるときの外積における符号と、反射板を介して撮影したLED像群であるときの外積における符号とを予め記憶させておき、記憶させた符号と比較することにより、直接撮影したLED像群であるか、或いは、反射板を介して撮影したLED像群であるかを判定するようにすればよい。
(2)上述したHMT装置1では、各LEDは、3種類の波長A、B、Cの赤外光のうちから予め設定された1種類の波長の赤外光を出射する構成としたが、各LEDは、同一種類の赤外光を出射するような構成としてもよい。このときには、光学マーカー位置情報算出部は、判定結果情報に基づいて、第一カメラで撮影された各LED像のエピポーララインを第二画像中に作成することにより、光学マーカー位置情報を算出するようにすればよい。
(Other embodiments)
(1) In the HMT device 1 described above, the determination result
(2) In the HMT device 1 described above, each LED is configured to emit infrared light having one preset wavelength from among three types of infrared light having wavelengths A, B, and C. Each LED may be configured to emit the same type of infrared light. At this time, the optical marker position information calculation unit calculates the optical marker position information by creating an epipolar line of each LED image photographed by the first camera in the second image based on the determination result information. You can do it.
本発明のHMT装置は、例えば、ゲーム機や乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度を測定するものとして、利用される。 The HMT device of the present invention is used, for example, as a device for measuring the current position and the current angle of a helmet with a head-mounted display device used in a game machine or a vehicle.
1 ヘッドモーショントラッカ装置
2 カメラ装置
3 パイロット
5 光源
7 LED(光学マーカー)
10 頭部装着型表示装置付ヘルメット(測定対象物)
15 第一画像
16 第二画像
30 搭乗体(基準対象物)
32 光学マーカー位置情報算出部
33 相対情報算出部
34 判定結果情報作成部
1 Head Motion Tracker Device 2
10 Helmet with head mounted display (measurement object)
15
32 Optical marker position
Claims (8)
基準対象物に取り付けられ、かつ、前記光学マーカーを撮影することにより第一画像を作成する第一カメラと、前記第一カメラが撮影すると同時に第一カメラと異なる方向から光学マーカーを撮影することにより第二画像を作成する第二カメラとを有するカメラ装置と、
前記カメラ装置に対する光学マーカーの現在位置である光学マーカー位置情報を算出する光学マーカー位置情報算出部と、
前記光学マーカー位置情報に基づいて、前記基準対象物に対する測定対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、
前記基準対象物に取り付けられ、かつ、前記光を反射する反射板と、
前記第一画像及び第二画像において光学マーカーが直接撮影されたか、或いは、反射板を介して撮影されたかのいずれであるかを判定した判定結果情報を作成する判定結果情報作成部とを備え、
前記光学マーカー位置情報算出部は、前記判定結果情報と第一画像及び第二画像とに基づいて、前記光学マーカー位置情報を算出することを特徴とするモーショントラッカ装置。 Three or more optical markers attached to the measurement object and emitting light; and
A first camera attached to a reference object and creating a first image by photographing the optical marker; and by photographing the optical marker from a different direction from the first camera at the same time as the first camera photographs. A camera device having a second camera for creating a second image;
An optical marker position information calculating unit that calculates optical marker position information that is a current position of the optical marker with respect to the camera device;
A motion tracker device comprising: a relative information calculation unit that calculates relative information including a current position and a current angle of a measurement object with respect to the reference object based on the optical marker position information;
A reflector attached to the reference object and reflecting the light;
A determination result information creating unit for creating determination result information for determining whether the optical marker is directly photographed in the first image and the second image or photographed via a reflector;
The optical marker position information calculation unit calculates the optical marker position information based on the determination result information, the first image, and the second image.
各光学マーカーは、少なくとも3種類の波長の光のうちから予め設定された1種類の波長の光を出射し、
前記光学マーカー点灯制御部は、同時に点灯させる光学マーカーが互いに異なる種類の波長の光を出射するように制御することを特徴とする請求項1に記載のモーショントラッカ装置。 An optical marker lighting control unit for lighting at least three optical markers selected from the plurality of optical markers;
Each optical marker emits light of one kind of preset wavelength from light of at least three kinds of wavelengths,
The motion tracker device according to claim 1, wherein the optical marker lighting control unit controls the optical markers that are simultaneously turned on to emit light of different types of wavelengths.
前記判定結果情報作成部は、前記第一画像及び第二画像中における各光学マーカー像の光強度に基づいて、直接撮影した光学マーカー像であるか、或いは、反射板を介して撮影した光学マーカー像であるかを判定することにより、前記判定結果情報を作成して、
前記光学マーカー位置情報算出部は、前記判定結果情報に基づいて、前記第一カメラで撮影された各光学マーカー像のエピポーララインを第二画像中に作成することにより、前記光学マーカー位置情報を算出することを特徴とする請求項2に記載のモーショントラッカ装置。 Each optical marker emits light of the same type of wavelength,
The determination result information creation unit is an optical marker image taken directly based on the light intensity of each optical marker image in the first image and the second image, or an optical marker taken via a reflector The determination result information is created by determining whether the image is an image,
The optical marker position information calculation unit calculates the optical marker position information by creating an epipolar line of each optical marker image photographed by the first camera in a second image based on the determination result information. The motion tracker device according to claim 2, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008137703A JP5262294B2 (en) | 2008-05-27 | 2008-05-27 | Motion tracker device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008137703A JP5262294B2 (en) | 2008-05-27 | 2008-05-27 | Motion tracker device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009287933A true JP2009287933A (en) | 2009-12-10 |
JP5262294B2 JP5262294B2 (en) | 2013-08-14 |
Family
ID=41457306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008137703A Active JP5262294B2 (en) | 2008-05-27 | 2008-05-27 | Motion tracker device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5262294B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03249507A (en) * | 1990-02-28 | 1991-11-07 | Mitsubishi Heavy Ind Ltd | Three-dimensional shape recognizer |
JPH06241741A (en) * | 1993-02-23 | 1994-09-02 | Seiko Epson Corp | Lead inspection device |
JP2003065737A (en) * | 2001-08-28 | 2003-03-05 | Topcon Corp | System and method for measuring surface shape and system for illustrating surface condition |
JP2006010610A (en) * | 2004-06-29 | 2006-01-12 | Tokyo Univ Of Science | Three-dimensional positioning device and method by monocular vision |
JP2006284442A (en) * | 2005-04-01 | 2006-10-19 | Shimadzu Corp | Method of monitoring object and motion tracker using this |
JP2007071782A (en) * | 2005-09-08 | 2007-03-22 | Canon Inc | System for measuring position attitude and method of measuring, same and control program |
JP2008065416A (en) * | 2006-09-05 | 2008-03-21 | Shimadzu Corp | Head motion tracker device |
-
2008
- 2008-05-27 JP JP2008137703A patent/JP5262294B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03249507A (en) * | 1990-02-28 | 1991-11-07 | Mitsubishi Heavy Ind Ltd | Three-dimensional shape recognizer |
JPH06241741A (en) * | 1993-02-23 | 1994-09-02 | Seiko Epson Corp | Lead inspection device |
JP2003065737A (en) * | 2001-08-28 | 2003-03-05 | Topcon Corp | System and method for measuring surface shape and system for illustrating surface condition |
JP2006010610A (en) * | 2004-06-29 | 2006-01-12 | Tokyo Univ Of Science | Three-dimensional positioning device and method by monocular vision |
JP2006284442A (en) * | 2005-04-01 | 2006-10-19 | Shimadzu Corp | Method of monitoring object and motion tracker using this |
JP2007071782A (en) * | 2005-09-08 | 2007-03-22 | Canon Inc | System for measuring position attitude and method of measuring, same and control program |
JP2008065416A (en) * | 2006-09-05 | 2008-03-21 | Shimadzu Corp | Head motion tracker device |
Also Published As
Publication number | Publication date |
---|---|
JP5262294B2 (en) | 2013-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5594944B2 (en) | Motion tracker device | |
US7369101B2 (en) | Calibrating real and virtual views | |
CN110658914B (en) | Scintillation tracking of boundary regions | |
US10948283B1 (en) | Tileable structured light projection system | |
US10634918B2 (en) | Internal edge verification | |
US20190212482A1 (en) | Angle selective filter for near eye displays | |
JP2008058102A (en) | Head motion tracker device | |
JP4924342B2 (en) | Motion tracker device | |
JP5505363B2 (en) | Motion tracker device | |
JP5292725B2 (en) | Motion tracker device | |
JP5029531B2 (en) | Motion tracker system and coordinate system setting method thereof | |
JP2016151566A (en) | Motion tracker device | |
JP2009036517A (en) | Head motion tracker device | |
JP4905311B2 (en) | Head motion tracker system and calibration device used therefor | |
JP4967546B2 (en) | Head motion tracker device | |
JP4905321B2 (en) | Head motion tracker device | |
JP4872768B2 (en) | Head motion tracker device | |
JP2014095557A (en) | Motion tracker device | |
JP4656016B2 (en) | Motion tracker device | |
JP5262294B2 (en) | Motion tracker device | |
JP4784591B2 (en) | Motion tracker device | |
JP4656017B2 (en) | Head motion tracker device | |
JP4877138B2 (en) | Head motion tracker device | |
JP5560600B2 (en) | Head motion tracker device | |
JP2007334762A (en) | Head motion tracker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120327 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130415 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5262294 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |