JP4858346B2 - Marker image identification device and marker image identification method - Google Patents

Marker image identification device and marker image identification method Download PDF

Info

Publication number
JP4858346B2
JP4858346B2 JP2007194309A JP2007194309A JP4858346B2 JP 4858346 B2 JP4858346 B2 JP 4858346B2 JP 2007194309 A JP2007194309 A JP 2007194309A JP 2007194309 A JP2007194309 A JP 2007194309A JP 4858346 B2 JP4858346 B2 JP 4858346B2
Authority
JP
Japan
Prior art keywords
marker
image
distance
camera
marker image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007194309A
Other languages
Japanese (ja)
Other versions
JP2009031086A (en
Inventor
研 廣岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2007194309A priority Critical patent/JP4858346B2/en
Publication of JP2009031086A publication Critical patent/JP2009031086A/en
Application granted granted Critical
Publication of JP4858346B2 publication Critical patent/JP4858346B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、物体にマーカー群となる発光体を取り付け、ステレオ視が可能な一対のカメラ装置でマーカー群を撮影し、一方のカメラで撮影された複数のマーカー像と、他方のカメラで撮影された複数のマーカー像との組を対応付けるマーカー像識別装置及びマーカー像識別方法に関し、例えば、物体の動き、すなわち時々刻々変化する物体の位置情報や角度情報(方向)を検出するマーカー像識別装置及びマーカー像識別方法等に利用される。 The present invention attaches a light emitter as a marker group to an object, photographs the marker group with a pair of camera devices capable of stereo viewing, and captures a plurality of marker images photographed with one camera and the other camera. A marker image identification device and a marker image identification method for associating a set with a plurality of marker images, for example, a marker image identification device for detecting movement of an object, that is, position information and angle information (direction) of an object that changes every moment, and Used for marker image identification method and the like.

一定形状の物体の動きを正確にモニタリングする技術は、さまざまな分野で利用されている。例えば、ゲーム機等ではバーチャルリアリティ(VR)を実現するために、頭部装着型表示装置を用いて動画を表示することがなされている。このとき、頭部の動きをモニタリングし、頭部の動きに合わせて表示画像を変化させる必要があり、頭部に装着される頭部装着型表示装置の動きを検出するヘッドモーショントラッカ(HMT)が、取り付けられている。   A technique for accurately monitoring the movement of an object having a fixed shape is used in various fields. For example, in a game machine or the like, a moving image is displayed using a head-mounted display device in order to realize virtual reality (VR). At this time, it is necessary to monitor the movement of the head and change the display image in accordance with the movement of the head, and a head motion tracker (HMT) that detects the movement of the head-mounted display device mounted on the head Is attached.

ヘッドモーショントラッカ(HMT)としては、磁気ソースを用いて周囲の空間に磁界を発生させておき、頭部装着型表示装置に取り付けられた磁気センサにより磁気を測定し、測定された磁気データから磁気センサの位置や角度、ひいては頭部装着型表示装置の位置や角度を検出する磁気測定方式によるものが開示されている(例えば、特許文献1参照)。
磁気測定方式は、磁気センサが移動する空間に磁界が発生している限り特に制限なく使用することができるものの、磁気センサが移動する空間の磁気情報を予め測定し、磁気マッピングしておく必要がある。また、この空間内に金属等の磁気歪を生じる物体が存在すると、その影響で測定誤差を生じてしまうので、その補正を行う必要がある。
As a head motion tracker (HMT), a magnetic source is used to generate a magnetic field in the surrounding space, and magnetism is measured by a magnetic sensor attached to a head-mounted display device. A magnetic measurement system that detects the position and angle of a sensor and, in turn, the position and angle of a head-mounted display device is disclosed (for example, see Patent Document 1).
Although the magnetic measurement method can be used without any limitation as long as a magnetic field is generated in the space in which the magnetic sensor moves, it is necessary to measure magnetic information in the space in which the magnetic sensor moves in advance and perform magnetic mapping. is there. In addition, if an object that causes magnetostriction such as metal exists in this space, a measurement error occurs due to the influence, and it is necessary to correct it.

これに対し、光学的に頭部装着型表示装置の位置や角度を測定するものも開示されている。例えば、頭部装着型表示装置に反射板(マーカー群)を取り付けて、光源から光を照射して反射光を一対のカメラ装置で撮影し、その映像データを利用してマーカー群の位置や角度を測定するような光学測定方式によるものが開示されている(例えば、特許文献2参照)。
光学測定方式では、マッピングの補正を行う必要がなく、また、金属等による影響を受けることはないので、磁気歪の影響を受けやすい環境や場所では光学測定方式によるものが使いやすい。
On the other hand, what optically measures the position and angle of a head-mounted display device is also disclosed. For example, a reflective plate (marker group) is attached to a head-mounted display device, light is emitted from a light source, and the reflected light is photographed with a pair of camera devices. An optical measurement system that measures the above is disclosed (for example, see Patent Document 2).
The optical measurement method does not require mapping correction and is not affected by metal or the like. Therefore, the optical measurement method is easy to use in an environment or place that is easily affected by magnetostriction.

このような光学測定方式のHMTで、一定形状の物体についての3次元の位置情報や角度情報(方向)を正確に測定しようとすると、その物体上に位置が固定された、異なる3点の位置を知る必要がある。そのため、物体の外表面の異なる3箇所に、それぞれが識別可能なマーカーを取り付けて位置を測定することになる。
例えば、ヘルメット状の頭部装着型表示装置で具体的に説明すると、頭部装着型表示装置のヘルメットの外表面に、互いに異なる発光波長の赤外光を発光するLED(発光ダイオード)をマーカーとして、互いに離隔するようにして3箇所に取り付け、これら3つのLEDのヘルメットに固定されたヘルメット座標上の位置関係を予め測定し定めておく。これら3つのLEDを、ステレオ視が可能でかつ設置場所が固定された2台のカメラで(すなわち2台のカメラ間の距離が既知の条件の下で)、それぞれのカメラで同時に撮影して、発光波長の差により各LEDをそれぞれ識別した上で、いわゆる三角測量の原理により、3つのLEDの絶対座標(一対のカメラ装置に対して定めた座標)を測定する。そして、これら3つのLEDの位置を用いて、絶対座標と、頭部装着型表示装置上に固定されたヘルメット座標の位置関係とを対応付けることにより、絶対座標に対する頭部装着型表示装置の位置や角度を特定する。
With such an optical measurement method HMT, when three-dimensional position information and angle information (direction) of an object having a fixed shape are to be measured accurately, the positions of three different points are fixed on the object. Need to know. Therefore, the position is measured by attaching markers each identifiable to three different locations on the outer surface of the object.
For example, a helmet-shaped head-mounted display device will be described in detail. LEDs (light-emitting diodes) that emit infrared light with different emission wavelengths are used as markers on the outer surface of the helmet of the head-mounted display device. These are mounted at three locations so as to be separated from each other, and the positional relationship on the helmet coordinates fixed to the helmets of these three LEDs is measured and determined in advance. These three LEDs are photographed simultaneously with two cameras that can be viewed in stereo and have a fixed installation location (that is, under a condition where the distance between the two cameras is known). After identifying each LED by the difference in emission wavelength, the absolute coordinates (coordinates determined for a pair of camera devices) of the three LEDs are measured by the so-called triangulation principle. Then, by using the positions of these three LEDs and associating the absolute coordinates with the positional relationship of the helmet coordinates fixed on the head-mounted display device, the position of the head-mounted display device with respect to the absolute coordinates, Identify the angle.

しかしながら、上述したような光学測定方式では、個々のLED(マーカー)を識別する必要があるため、LED自身に、それぞれ他のLEDと識別可能な何らかの識別情報を持たせて、検出側(カメラ装置側)で識別できるようにしている。つまり、発光波長をLEDごとに変化させ、カメラ装置側で発光波長を識別するようにして各LEDをそれぞれ識別している。   However, in the optical measurement method as described above, since it is necessary to identify individual LEDs (markers), the LEDs themselves have some identification information that can be distinguished from other LEDs, and the detection side (camera device) Side). That is, the emission wavelength is changed for each LED, and each LED is identified by identifying the emission wavelength on the camera device side.

ところが、個々のLEDに識別可能な識別情報を持たせる場合、故障等でLEDを交換するたびに、識別情報を改めて記憶させておく必要があり、手間がかかる。
また、識別情報を持たないLEDで、個々のLEDを識別しようとするなら、LEDを1つ1つ点灯させて識別すればよいが、その場合、全てのLEDを順次点灯させなければならず、一巡するまでに長時間必要となるため、時々刻々変化する動きをモニタリングすることは困難である。
However, in the case where each LED has identification information that can be identified, each time the LED is replaced due to a failure or the like, it is necessary to store the identification information again, which is troublesome.
In addition, if an individual LED is to be identified with an LED having no identification information, it is only necessary to turn on the LED one by one, but in that case, all the LEDs must be turned on sequentially, Since it takes a long time to complete a cycle, it is difficult to monitor the movement that changes from moment to moment.

そこで、カメラ装置で撮影される3つの異なるLEDの位置を光学的に測定し、これら3つのLEDの動きから物体の動き(位置、角度)をモニタリングする際に、LEDを1つ1つ順番に点灯させることなく、LED自身には他のLEDと識別するための識別情報を持たせることもなく、LEDの位置情報のみから個々のLEDを識別するようにして、LED群の位置、ひいては、LEDが取り付けられた物体の動き(位置、角度)をモニタリングする方法が提案されている。
特開2002−81904号公報 特表平9−506194号公報
Therefore, when the positions of three different LEDs photographed by the camera device are optically measured and the movement (position and angle) of the object is monitored from the movements of these three LEDs, the LEDs are sequentially arranged one by one. Without turning on the LED, the LED itself does not have identification information for distinguishing it from other LEDs, and the individual LED is identified only from the position information of the LED. There has been proposed a method for monitoring the movement (position, angle) of an object to which is attached.
JP 2002-81904 A JP-T 9-506194

上述した物体の動きをモニタリングする方法では、第一カメラの撮影方向と第二カメラの撮影方向とが定まった状態において、エピポーラ幾何学に基づく予測により、第一カメラで撮影された第一画像と第二カメラで撮影された第二画像との間での共通のLEDの組を認識することが行われている。図4及び図5は、エピポーラ幾何学に基づく予測を説明する図である。
図4に示すように、第一カメラ12で撮影された第一画像Aには、点灯中の3つのLED18a、18b、18cのいずれにそれぞれ対応するかは認識できないが、3つのLED像18x、18y、18zが映し出されている。一方、第二カメラ14で撮影された第二画像Bにも、点灯中の3つのLED18a、18b、18cのいずれにそれぞれ対応するかは認識できないが、3つのLED像18s、18t、18uが映し出されている。このとき、第一画像Aにおける各LED像18x、18y、18zが、第二画像BにおけるLED像18s、18t、18uのいずれにそれぞれ対応するかも認識できない。
In the above-described method for monitoring the movement of the object, in a state where the shooting direction of the first camera and the shooting direction of the second camera are determined, the first image captured by the first camera is predicted by prediction based on epipolar geometry; Recognizing a common set of LEDs with a second image taken by a second camera is performed. 4 and 5 are diagrams for explaining prediction based on epipolar geometry.
As shown in FIG. 4, the first image A captured by the first camera 12 cannot recognize which of the three LEDs 18a, 18b, and 18c that are lit, but the three LED images 18x, 18y and 18z are projected. On the other hand, the second image B photographed by the second camera 14 cannot recognize which of the three LEDs 18a, 18b, and 18c that are lit, but three LED images 18s, 18t, and 18u are projected. It is. At this time, it cannot be recognized whether the LED images 18x, 18y, and 18z in the first image A correspond to the LED images 18s, 18t, and 18u in the second image B, respectively.

そこで、第一画像Aにおける各LED像18x、18y、18zと、第二画像BにおけるLED像18s、18t、18uとの組を対応付けるため、図5に示すように、第一カメラ12と3つのLED18a、18b、18cとを結ぶそれぞれのエピポーラライン(仮想直線)La、Lb、Lcが存在するとして、エピポーララインLx、Ly、Lzを第二カメラ14で撮影したとすると、第二画像B上にエピポーララインLx、Ly、Lzが作成されることになる。なお、第二画像B上のエピポーララインLa、Lb、Lcの位置は、第一画像A上でのLED像18x、18y、18zが映し出される位置、及び、第一カメラ12の撮影方向と第二カメラ14の撮影方向との関係に基づいて一意的に定まる。
一方、第二画像Bにおいて、3つのLED18a、18b、18cに対応する各LED像18s、18t、18uは、3つのLED18a、18b、18cを映し出したものであるので、それぞれ対応することになるエピポーララインLx、Ly、Lzのいずれかの上の位置に存在することになる。したがって、第二画像B上に映し出されるLED像のうちで、エピポーララインLx上に存在するものがあれば、それがLED像18xに対応するLED像であると特定することができる。同様に、他の2つのLED像18y、18zに対応するLED像ついても特定することにより、第一画像Aに映し出された3つのLED像18x、18y、18zと、第二画像Bに映し出された3つのLED像18s、18t、18uとのそれぞれの組の対応付けを行うことができる。
Therefore, in order to associate the sets of the LED images 18x, 18y, and 18z in the first image A with the LED images 18s, 18t, and 18u in the second image B, as shown in FIG. If each epipolar line (virtual straight line) La, Lb, and Lc connecting the LEDs 18a, 18b, and 18c is present and the epipolar lines Lx, Ly, and Lz are captured by the second camera 14, the second image B is displayed. Epipolar lines Lx, Ly, and Lz are created. The positions of the epipolar lines La, Lb, and Lc on the second image B are the positions at which the LED images 18x, 18y, and 18z are projected on the first image A, the shooting direction of the first camera 12, and the second direction. It is uniquely determined based on the relationship with the shooting direction of the camera 14.
On the other hand, in the second image B, the LED images 18s, 18t, and 18u corresponding to the three LEDs 18a, 18b, and 18c are images of the three LEDs 18a, 18b, and 18c. It exists at a position above any of the lines Lx, Ly, and Lz. Accordingly, if there is an LED image displayed on the second image B that exists on the epipolar line Lx, it can be specified that it is an LED image corresponding to the LED image 18x. Similarly, by specifying the LED images corresponding to the other two LED images 18y and 18z, the three LED images 18x, 18y and 18z displayed on the first image A and the second image B are displayed. Each of the three LED images 18s, 18t, and 18u can be associated with each other.

しかしながら、例えば、図5に示すように、第二画像Bにおいて、2つのLED像18y、18zに対応するエピポーララインLy、Lzが極近い距離に存在する場合がある。このような場合では、第二画像B上に映し出されるLED像のうちで、エピポーララインLy上に存在するLED像が、LED像18tであるのか又はLED像18uであるのかが困難であることがあった。同様に、第二画像B上に映し出されるLED像のうちで、エピポーララインLz上に存在するLED像が、LED像18tであるのか又はLED像18uであるのかが困難であることがあった。つまり、2つのエピポーララインが接近したときに、第一画像Aに映し出された3つのLED像18x、18y、18zと、第二画像Bに映し出された3つのLED像18s、18t、18uとのそれぞれの組の対応付けが困難になることがあった。 However, for example, as shown in FIG. 5, in the second image B, epipolar lines Ly and Lz corresponding to the two LED images 18y and 18z may exist at a very close distance. In such a case, it may be difficult to determine whether the LED image present on the epipolar line Ly is the LED image 18t or the LED image 18u among the LED images projected on the second image B. there were. Similarly, among the LED images projected on the second image B, it may be difficult whether the LED image existing on the epipolar line Lz is the LED image 18t or the LED image 18u. That is, when two epipolar lines approach, the three LED images 18x, 18y, and 18z projected on the first image A and the three LED images 18s, 18t, and 18u projected on the second image B Corresponding each set may be difficult.

そこで、識別情報を有していないマーカーを利用して、かつ、1つ1つのマーカーを別々に点灯させて順次識別しながら測定するのではなく、少なくとも3つのマーカーを同時に点灯させて、これらマーカー群をほぼ同時に測定するようにしても、一のカメラに映し出された複数のマーカー像と、二のカメラに映し出された複数のマーカー像との組をそれぞれ正確かつ素早く対応付けることができるマーカー像識別装置及びマーカー像識別方法を提供することを目的とする。   Therefore, instead of using markers that do not have identification information and measuring while sequentially identifying each marker separately, these markers are lit at the same time. Marker image identification that makes it possible to accurately and quickly associate a set of multiple marker images displayed on one camera and multiple marker images displayed on a second camera, even if the group is measured almost simultaneously. An object is to provide an apparatus and a marker image identification method.

上記課題を解決するためになされた本発明のマーカー像識別装置は、物体の外表面に取り付けられた少なくとも3つの点灯可能なマーカーを識別するためのマーカー像識別装置であって、点灯した少なくとも3つのマーカーが含まれる第一画像を撮影する第一カメラと、前記第一カメラと異なる方向から、少なくとも3つのマーカーが含まれる第二画像を同時に撮影する第二カメラと、前記第一カメラで映し出された各マーカー像のエピポーララインを、前記第二画像上に作成するエピポーラライン作成部と、前記第二画像上において、エピポーラライン間で最も離れているエピポーララインを基準エピポーララインとして選択する基準エピポーラライン選択部と、前記第二画像上において、基準エピポーララインに距離が最も近いマーカー像を、前記基準エピポーララインに対応するマーカー像と同一のマーカーの画像であると認識するマーカー像認識部と、前記第一画像及び第二画像のそれぞれの画像上において、前記マーカー像認識部で認識されたマーカー像に対する残りのマーカー像の位置関係を決定するマーカー像位置決定部と、前記マーカー像位置決定部で決定されたマーカー像の位置関係に基づいて、前記第一画像上における残りのマーカー像と第二画像上における残りのマーカー像との組を対応付けるマーカー像識別部とを備えるようにしている。   The marker image identification device of the present invention made to solve the above-mentioned problems is a marker image identification device for identifying at least three illuminable markers attached to the outer surface of an object, and is at least three illuminated. A first camera that captures a first image including two markers, a second camera that simultaneously captures a second image including at least three markers from a different direction from the first camera, and the first camera. An epipolar line creation unit for creating the epipolar line of each marker image on the second image, and a reference epipolar line for selecting the epipolar line farthest between the epipolar lines on the second image as the reference epipolar line Marker closest to the reference epipolar line on the line selector and the second image Is recognized by the marker image recognition unit on each of the first image and the second image, and the marker image recognition unit recognizes that the image is the same marker image as the marker image corresponding to the reference epipolar line. A marker image position determining unit that determines the positional relationship of the remaining marker image with respect to the marker image, and a remaining marker on the first image based on the positional relationship of the marker image determined by the marker image position determining unit A marker image identifying unit that associates a set of the image and the remaining marker image on the second image is provided.

本発明のマーカー像識別装置によれば、まず、少なくとも3つのマーカー像が第一カメラ及び第二カメラのそれぞれの画像に映し出される。そして、第一カメラに映し出された各マーカー像のエピポーララインを、第二カメラに映し出された第二画像上に作成する。次に、第二画像上において、エピポーラライン間で最も離れているエピポーララインを基準エピポーララインとして選択する。これにより、第二画像上において、基準エピポーララインに距離が最も近いマーカー像を、基準エピポーララインに対応するマーカー像と同一のマーカーの画像であると認識する。つまり、最も離れているエピポーララインを基準エピポーララインとして選択しているので、第二画像上に映し出される基準エピポーララインに対応するLED像も、他のLED像と離れているので、基準エピポーララインに対応するマーカー像を確実に特定することができる。また、第一画像及び第二画像のそれぞれの画像上において、マーカー像認識部で認識されたマーカー像に対する残りのマーカー像の位置関係を決定する。例えば、3つのマーカーを点灯したときには、第一画像及び第二画像のそれぞれの画像上において、マーカー像認識部で認識されたマーカー像を始点として、他の2つのマーカー像を終点とするベクトルを作成して外積を算出することにより、マーカー像認識部で認識されたマーカー像に対する残りのマーカー像の位置関係を決定する。これにより、第一画像及び第二画像のそれぞれの画像上において、それぞれ算出された外積が同符号となる場合には、同じ回転方向となるとしてマーカー像の組を対応付け、一方、外積が異符号となる場合には、異なる回転方向となるとして逆にマーカー像の組を対応付け、第一画像上における残りのマーカー像と第二画像上における残りのマーカー像との組を対応付ける。よって、例えば、図5に示すように、第二画像Bにおいて、2つのLED像18y、18zに対応するエピポーララインLb、Lcが極近い距離に存在する場合でも、外積を用いて、第一画像上におけるLED像18y、18zと第二画像上におけるLED像18t、18uとの組をそれぞれ対応付けることができる。   According to the marker image identification device of the present invention, first, at least three marker images are displayed on the respective images of the first camera and the second camera. And the epipolar line of each marker image projected on the 1st camera is created on the 2nd image projected on the 2nd camera. Next, on the second image, the epipolar line that is farthest between the epipolar lines is selected as the reference epipolar line. Thereby, on the second image, the marker image having the closest distance to the reference epipolar line is recognized as the same marker image as the marker image corresponding to the reference epipolar line. That is, since the furthest epipolar line is selected as the reference epipolar line, the LED image corresponding to the reference epipolar line displayed on the second image is also distant from the other LED images. The corresponding marker image can be reliably identified. Further, the positional relationship of the remaining marker image with respect to the marker image recognized by the marker image recognition unit is determined on each of the first image and the second image. For example, when three markers are lit, a vector having a marker image recognized by the marker image recognition unit as a start point and the other two marker images as an end point on each of the first image and the second image. The positional relationship of the remaining marker image with respect to the marker image recognized by the marker image recognition unit is determined by calculating and calculating the outer product. As a result, when the calculated outer product has the same sign on each of the first image and the second image, the set of marker images is associated with the same rotation direction, while the outer product is different. In the case of a code, the sets of marker images are associated with each other assuming that the rotation directions are different, and the sets of the remaining marker images on the first image and the remaining marker images on the second image are associated with each other. Therefore, for example, as shown in FIG. 5, in the second image B, even if the epipolar lines Lb and Lc corresponding to the two LED images 18 y and 18 z exist at a very close distance, the first image is obtained using the outer product. A set of LED images 18y and 18z on the upper side and LED images 18t and 18u on the second image can be associated with each other.

本発明によれば、識別情報を有していないマーカーを利用して、かつ、1つ1つのマーカーを別々に点灯させて順次識別しながら測定するのではなく、少なくとも3つのマーカーを同時に点灯させて、これらマーカー群をほぼ同時に測定するようにしても、第一カメラに映し出された複数のマーカー像と、第二カメラに映し出された複数のマーカー像との組をそれぞれ正確かつ素早く対応付けることができる。
(他の課題を解決するための手段および効果)
According to the present invention, at least three markers are lit at the same time, instead of using markers that do not have identification information and measuring each of the markers separately while sequentially identifying them. Thus, even if these marker groups are measured almost simultaneously, a set of a plurality of marker images projected on the first camera and a plurality of marker images projected on the second camera can be accurately and quickly associated with each other. it can.
(Means and effects for solving other problems)

また、本発明においては、前記マーカーは、前記物体上に定義される物体固定座標上での位置を定められるとともに、前記第一カメラ及び第二カメラを用いて、空間上に定義された絶対座標が記憶され、さらに、前記マーカー像認識部及びマーカー像識別部により対応付けられた各マーカー像の組について、前記絶対座標上での位置を三角測量で算出することで探索用マーカーを作成することにより、前記探索用マーカーとマーカーとの組を対応付けて絶対座標上での物体の位置と角度とを決定する物体モニタリング部を備えるようにしてもよい。     Further, in the present invention, the marker is positioned on the object fixed coordinate defined on the object, and the absolute coordinate defined on the space using the first camera and the second camera. Is further stored, and for each set of marker images associated by the marker image recognition unit and the marker image identification unit, the position on the absolute coordinate is calculated by triangulation to create a search marker Thus, an object monitoring unit that determines the position and the angle of the object on the absolute coordinates by associating the set of the search marker and the marker may be provided.

本発明によれば、第一画像と第二画像との間で対となるマーカー像の組が特定されると、それぞれの探索用マーカーについての第一カメラ及び第二カメラからの方向角が特定できるので、第一カメラと第二カメラとの間の距離とこれら方向角とから所謂、三角測量を行うことにより、それぞれの探索用マーカーの絶対座標での位置を算出することができる。これを、定められた物体固定座標系上での各マーカーの座標と比較する。そして、絶対座標と物体固定座標とに基づいて、絶対座標に対する物体の位置と角度とを算出する。このようにして、絶対座標上に対する物体の位置と角度とを決定することにより、物体の動きをモニタリングすることができる。 According to the present invention, when a pair of marker images is identified between the first image and the second image, the direction angle from the first camera and the second camera for each search marker is identified. Therefore, by performing so-called triangulation from the distance between the first camera and the second camera and these direction angles, the position of each search marker in absolute coordinates can be calculated. This is compared with the coordinates of each marker on the fixed object fixed coordinate system. Then, based on the absolute coordinates and the object fixed coordinates, the position and angle of the object with respect to the absolute coordinates are calculated. In this way, the movement of the object can be monitored by determining the position and angle of the object with respect to the absolute coordinates.

また、本発明においては、点灯した少なくとも3つのマーカーをそれぞれ結んだ線は、等距離でなく、前記物体モニタリング部は、前記物体固定座標上において、最も短い又は最も長いマーカー間距離を基準マーカー間距離として選択する基準マーカー間距離選択部と、前記マーカー像認識部及びマーカー像識別部により対応付けられた各マーカー像の組について、前記絶対座標上での探索用マーカーの位置を三角測量で算出することにより、最も短い又は最も長い探索用マーカー間距離を、前記基準マーカー間距離と同一のマーカー間距離であると認識するマーカー間距離認識部と、前記マーカー間距離認識部で認識されたマーカー間距離を基準にして、前記物体の外表面に取り付けられたマーカーと、探索用マーカーとの組を対応付けることにより、前記絶対座標上での物体の位置と角度とを決定するマーカー識別部とを備えるようにしてもよい。 In the present invention, lines connecting at least three lit markers are not equidistant, and the object monitoring unit sets the shortest or longest inter-marker distance between the reference markers on the object fixed coordinates. The position of the search marker on the absolute coordinates is calculated by triangulation for a set of reference marker distance selection units to be selected as the distance and each marker image associated by the marker image recognition unit and the marker image identification unit. By doing this, the inter-marker distance recognition unit that recognizes the shortest or longest inter-search marker distance as the same inter-marker distance as the reference marker distance, and the marker recognized by the inter-marker distance recognition unit Associating a set of a marker attached to the outer surface of the object and a search marker with reference to the distance between them A result, may be provided with a marker identifying unit for determining the position and angle of the object on the absolute coordinate.

本発明によれば、例えば、物体固定座標上において、最も短いマーカー間距離を基準マーカー間距離として選択する。一方、第一画像と第二画像との間で対となるマーカー像の組が特定されると、絶対座標での探索用マーカー間距離を算出する。これによって、最も短い探索用マーカー間距離を、基準マーカー間距離と同一のマーカー間距離であると認識する。つまり、点灯した少なくとも3つのマーカーをそれぞれ結んだ線は、等距離でないようにしてあるので、一つのマーカー間距離の組が対応付けできれば、例えば、3つのマーカーを点灯したときには、絶対座標において、マーカー間距離認識部で認識されたマーカー間距離上にない探索用マーカーを始点として、他の2つの探索用マーカーを終点とするベクトルを作成して外積を算出することにより、探索用マーカーの位置関係を決定する。同様に、絶対座標において、マーカー間距離認識部で認識されたマーカー間距離上にないマーカーを始点として、他の2つのマーカーを終点とするベクトルを作成して外積を算出することにより、マーカーの位置関係を決定する。その後、探索用マーカー及びマーカーのそれぞれ算出された外積を比較して、外積が同符号となる場合には、同じ回転方向となるとして組を対応付け、一方、外積が異符号となる場合には、異なる回転方向となるとして組を逆に対応付ける。このようにして、物体の外表面に取り付けられたマーカーと、第一画像Aと第二画像Bとにより算出された探索用マーカーとの組を対応付けることができることになる。これにより、絶対座標と物体固定座標とに基づいて、絶対座標に対する物体の位置と角度とを算出することができる。 According to the present invention, for example, the shortest marker distance is selected as the reference marker distance on the object fixed coordinates. On the other hand, when a pair of marker images is identified between the first image and the second image, the search marker distance in absolute coordinates is calculated. Accordingly, the shortest distance between markers for search is recognized as the same distance between markers as the distance between reference markers. In other words, since the lines connecting at least three lit markers are not equidistant, if a pair of marker distances can be associated, for example, when three markers are lit, in absolute coordinates, The position of the search marker is calculated by calculating a cross product by creating a vector starting from the search marker that is not on the inter-marker distance recognized by the inter-marker distance recognition unit and ending with the other two search markers. Determine the relationship. Similarly, in absolute coordinates, a marker that is not on the marker distance recognized by the marker distance recognition unit is used as a starting point, and a vector with the other two markers as the end point is calculated to calculate the outer product. Determine the positional relationship. After that, the calculated outer products of the search marker and the marker are compared, and if the outer product has the same sign, the pair is associated as having the same rotation direction, whereas if the outer product has a different sign Associate the pairs in reverse, assuming different rotation directions. In this way, a set of the marker attached to the outer surface of the object and the search marker calculated from the first image A and the second image B can be associated with each other. Accordingly, the position and angle of the object with respect to the absolute coordinate can be calculated based on the absolute coordinate and the object fixed coordinate.

また、本発明のマーカー像識別方法は、物体の外表面に取り付けられた少なくとも3つの点灯可能なマーカーと、点灯した少なくとも3つのマーカーが含まれる第一画像を撮影する第一カメラと、前記第一カメラと異なる方向から、点灯した少なくとも3つのマーカーが含まれる第二画像を撮影する第二カメラとを備えるマーカー像識別システムにおけるマーカー像識別方法であって、(a)前記第一カメラで映し出された各マーカー像のエピポーララインを、前記第二カメラで映し出された第二画像上に作成するエピポーラライン作成工程と、(b)前記第二画像上において、エピポーラライン間で最も離れているエピポーララインを基準エピポーララインとして選択する基準エピポーラライン選択工程と、(c)前記第二画像上において、基準エピポーララインに距離が最も近いマーカー像を、前記基準エピポーララインに対応するマーカー像と同一のマーカーの像であると認識するマーカー像認識工程と、(d)前記第一画像及び第二画像のそれぞれの画像上において、前記マーカー像認識工程で認識されたマーカー像に対する残りのマーカー像の位置関係を決定するマーカー像位置決定工程と、(e)前記マーカー像位置決定工程で決定されたマーカー像の位置関係に基づいて、前記第一画像上における残りのマーカー像と第二画像上における残りのマーカー像との組を対応付けるマーカー像識別工程とを含むようにしている。 The marker image identification method of the present invention includes at least three illuminable markers attached to an outer surface of an object, a first camera that captures a first image including at least three illuminated markers, A marker image identification method in a marker image identification system, comprising: a second camera that captures a second image including at least three markers that are lit from a direction different from that of one camera, and (a) projected by the first camera. An epipolar line creation step of creating an epipolar line of each marker image on the second image projected by the second camera; and (b) an epipolar line that is farthest between the epipolar lines on the second image. A reference epipolar line selection step of selecting a line as a reference epipolar line; and (c) on the second image A marker image recognition step for recognizing that the marker image closest to the reference epipolar line is the same marker image as the marker image corresponding to the reference epipolar line; and (d) the first image and the second image On each image, a marker image position determining step for determining the positional relationship of the remaining marker images with respect to the marker image recognized in the marker image recognition step; and (e) the marker image determined in the marker image position determining step. And a marker image identifying step for associating a set of the remaining marker image on the first image and the remaining marker image on the second image based on the positional relationship of the first image and the second image.

そして、本発明においては、前記マーカーは、前記物体上に定義される物体固定座標上での位置を定められるとともに、前記第一カメラ及び第二カメラを用いて、空間上に定義された絶対座標が記憶され、さらに、(f)前記マーカー像認識工程及びマーカー像識別工程により対応付けられた各マーカー像の組について、前記絶対座標上での位置を三角測量で算出することで探索用マーカーを作成することにより、前記探索用マーカーとマーカーとの組を対応付けて絶対座標上での物体の位置と角度とを決定する物体モニタリング工程を含むようにしてもよい。     In the present invention, the marker is positioned on the object fixed coordinates defined on the object, and the absolute coordinates defined on the space using the first camera and the second camera. And (f) for each set of marker images associated by the marker image recognition step and the marker image identification step, the position on the absolute coordinate is calculated by triangulation to obtain a search marker. By creating, an object monitoring step of determining the position and angle of the object on the absolute coordinates by associating the set of the search marker and the marker may be included.

さらに、本発明においては、点灯した少なくとも3つのマーカーをそれぞれ結んだ線は、等距離でなく、(f)物体モニタリング工程は、(f−1)前記物体固定座標上において、最も短い又は最も長いマーカー間距離を基準マーカー間距離として選択する基準マーカー間距離選択工程と、(f−2)前記マーカー像認識部及びマーカー像識別部により対応付けられた各マーカー像の組について、前記絶対座標上での探索用マーカーの位置を三角測量で算出することにより、最も短い又は最も長い探索用マーカー間距離を、前記基準マーカー間距離と同一のマーカー間距離であると認識するマーカー間距離認識工程と、(f−3)前記マーカー間距離認識部で認識されたマーカー間距離を基準にして、前記物体の外表面に取り付けられたマーカーと、探索用マーカーとの組を対応付けることにより、前記絶対座標上での物体の位置と角度とを決定するマーカー識別工程とを含むようにしてもよい。 Further, in the present invention, lines connecting at least three lit markers are not equidistant, and (f) object monitoring step is (f-1) the shortest or longest on the object fixed coordinates. A distance between reference markers that selects a distance between markers as a distance between reference markers, and (f-2) a set of marker images associated by the marker image recognition unit and the marker image identification unit on the absolute coordinates. The inter-marker distance recognition step for recognizing that the shortest or longest inter-search marker distance is the same inter-marker distance as the reference inter-marker distance by calculating the position of the search marker at (F-3) A marker attached to the outer surface of the object with reference to the inter-marker distance recognized by the inter-marker distance recognition unit. Over and, by associating a set of the search marker may include a marker identifying step of determining the position and angle of the object on the absolute coordinate.

以下、本発明の一実施形態であるマーカー像識別方法について、マーカー像識別方法を用いたヘッドモーショントラッカ(HMT)を具体例として、図面を用いて説明する。ただし、本発明は以下に説明する具体例に限られず、本発明の趣旨を逸脱しない範囲で適用されるものである。   Hereinafter, a marker image identification method according to an embodiment of the present invention will be described using a head motion tracker (HMT) using the marker image identification method as a specific example with reference to the drawings. However, the present invention is not limited to the specific examples described below, and can be applied without departing from the spirit of the present invention.

図1は、本発明の一実施形態であるHMTの概略構成を示す図である。HMT10は、ステレオ視ができるように距離dを隔てて並ぶように設置される一対のカメラ装置11と、頭部装着型表示装置付ヘルメット16と、頭部装着型表示装置付ヘルメット16の外表面に取り付けたLED群18と、コンピュータにより構成される制御演算部20とから構成される。 FIG. 1 is a diagram showing a schematic configuration of an HMT which is an embodiment of the present invention. The HMT 10 includes a pair of camera devices 11 that are installed so as to be arranged at a distance d so as to enable stereo viewing, a helmet 16 with a head-mounted display device, and outer surfaces of the helmet 16 with a head-mounted display device. The LED group 18 attached to the control unit 20 and a control calculation unit 20 configured by a computer.

カメラ装置11は、第一カメラ12と第二カメラ14とを有する。これにより、第一カメラ12で撮影された第一画像Aが作成されるとともに、第二カメラ14で撮影された第二画像Bが作成されることになる。このとき、第一画像Aにおいて、2次元座標系(XaYaZa座標)が設定されるが、原点及び各座標軸の方向を任意に定めることができ、本実施形態では図6に示すように、底辺をXa軸とし、左辺をYa軸とするように定義し、原点を底辺と左辺との交点として定義するようにしてある。同様に、第二画像Bにおいて、2次元座標系(XbYbZb座標)が設定されるが、原点及び各座標軸の方向を任意に定めることができ、本実施形態では図6(a)に示すように、底辺をXb軸とし、左辺をYb軸とするように定義し、原点を底辺と左辺との交点として定義するようにしてある。 The camera device 11 includes a first camera 12 and a second camera 14. Thereby, the first image A photographed by the first camera 12 is created, and the second image B photographed by the second camera 14 is created. At this time, a two-dimensional coordinate system (XaYaZa coordinates) is set in the first image A, but the origin and the direction of each coordinate axis can be arbitrarily determined. In this embodiment, as shown in FIG. The Xa axis is defined so that the left side is the Ya axis, and the origin is defined as the intersection of the bottom side and the left side. Similarly, in the second image B, a two-dimensional coordinate system (XbYbZb coordinates) is set, but the origin and the direction of each coordinate axis can be arbitrarily determined. In this embodiment, as shown in FIG. The bottom side is defined as the Xb axis, the left side is defined as the Yb axis, and the origin is defined as the intersection of the bottom side and the left side.

また、第一カメラ12及び第二カメラ14は、撮影方向がそれぞれヘルメット16に向けられており、LED群18のうち少なくとも3つのLED(第一カメラ12と第二カメラ14とで同一のLED)が同時に視野内に入るように、LED群18の数や配置に応じて設置位置が定められている。
なお、第一カメラ12及び第二カメラ14は、ヘルメット16の全体像が視野内に入るように、ヘルメット16から距離を隔てた位置に設置してもよい。この場合は、ヘルメット16に取り付けるLEDの数を比較的少なくしても、第一カメラ12及び第二カメラ14の視野内に3つのLEDを含ませることができる。
一方、第一カメラ12及び第二カメラ14を、ヘルメット16に接近させてヘルメット16の一部だけが視野内に入るようにしてもよい。この場合は、ヘルメット16に取り付けるLEDの数を増やして、視野内に少なくとも3つのLEDが含まれるようにしなければならないが、LEDの位置を精度よく測定することができる。
The first camera 12 and the second camera 14 are each directed toward the helmet 16, and at least three LEDs in the LED group 18 (the same LED for the first camera 12 and the second camera 14). Are set in accordance with the number and arrangement of the LED groups 18 so that they are simultaneously within the field of view.
In addition, you may install the 1st camera 12 and the 2nd camera 14 in the position spaced apart from the helmet 16 so that the whole image of the helmet 16 may enter into a visual field. In this case, even if the number of LEDs attached to the helmet 16 is relatively small, three LEDs can be included in the field of view of the first camera 12 and the second camera 14.
On the other hand, the first camera 12 and the second camera 14 may be brought close to the helmet 16 so that only a part of the helmet 16 enters the field of view. In this case, the number of LEDs attached to the helmet 16 must be increased so that at least three LEDs are included in the field of view, but the position of the LEDs can be accurately measured.

頭部装着型表示装置付ヘルメット16は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、装着者の目に導くコンバイナ8とを有する。なお、頭部装着型表示装置付ヘルメット16を装着した装着者は、表示器による表示映像とコンバイナ8の前方実在物とを視認することが可能となっている。 The helmet 16 with a head-mounted display device includes a display (not shown) and a combiner 8 that guides the eyes of the wearer by reflecting image display light emitted from the display. In addition, the wearer wearing the helmet 16 with a head-mounted display device can visually recognize the display image by the display unit and the front actual object of the combiner 8.

LED群18は、図2に示すように、赤外光を発光する6個のLED18a、18b、18c、・・・、18fが互いに異なる距離で離隔するようにして頭部装着型表示装置付ヘルメット16の外表面に取り付けられている。なお、頭部装着型表示装置付ヘルメット16に固定されたヘルメット座標でのLED18a、18b、18c、・・・、18fの位置は、予め、後述するメモリ41のヘルメット座標記憶部44に記憶されるようにしてある。よって、例えば、後述する三角測量の手法で、現時点における空間(絶対座標)上での3個のLED18a、18b、18cの位置を算出すると、ヘルメット座標記憶部44に記憶されたデータを参照することにより、LED18a、18b、18cが固定されているヘルメット16の空間(絶対座標)上での位置や角度(方向)が特定できる。 As shown in FIG. 2, the LED group 18 includes six heads 18a, 18b, 18c,..., 18f that emit infrared light and are separated from each other at different distances by a head mounted helmet with a display device. 16 are attached to the outer surface. The positions of the LEDs 18a, 18b, 18c,..., 18f in the helmet coordinates fixed to the helmet 16 with a head-mounted display device are stored in advance in the helmet coordinate storage unit 44 of the memory 41 described later. It is like that. Therefore, for example, when the positions of the three LEDs 18a, 18b, and 18c in the current space (absolute coordinates) are calculated by a triangulation method to be described later, the data stored in the helmet coordinate storage unit 44 is referred to. Thus, the position and angle (direction) on the space (absolute coordinates) of the helmet 16 to which the LEDs 18a, 18b, 18c are fixed can be specified.

なお、LED群18は、第一カメラ12及び第二カメラ14で点灯状態が確認できるものであれば、発光波長に制限はない。
また、ヘルメット16が動く範囲に応じて、ヘルメット16上でのLED群18を取り付ける範囲を調整してもよい。すなわち、ヘルメット16の動く範囲が小さい場合は、その領域に限ってLED群18を取り付ければよい。一方、ヘルメット16があらゆる方向に動く場合は、ヘルメット16の全体にわたってLED群18を取り付ける必要がある。
The LED group 18 is not limited in the emission wavelength as long as the lighting state can be confirmed by the first camera 12 and the second camera 14.
Moreover, you may adjust the range which attaches LED group 18 on the helmet 16 according to the range which the helmet 16 moves. That is, when the range of movement of the helmet 16 is small, the LED group 18 may be attached only in that region. On the other hand, when the helmet 16 moves in all directions, it is necessary to attach the LED group 18 over the entire helmet 16.

制御演算部20は、カメラ装置11及びLED群18についての制御とともに、これらと連動して種々の演算処理を行うものである。制御演算部20が実行する制御・演算内容を機能ごとに分けて説明すると、制御演算部20は、図1に示すように、マーカー点灯部21と、エピポーラライン作成部31と、基準エピポーラライン選択部32と、マーカー像認識部33と、マーカー像位置決定部34と、マーカー像識別部35と、物体モニタリング部36と、映像表示部25とを備える。
また、メモリ41には、制御演算部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、絶対座標(XYZ座標)を記憶する絶対座標記憶部42と、ヘルメット座標(X’Y’Z’座標)とヘルメット座標でのLED18a、18b、18c、・・・、18fの位置とを記憶するヘルメット座標記憶部44とを有する。
The control calculation unit 20 performs various calculation processes in conjunction with the control of the camera device 11 and the LED group 18 in conjunction with them. The control and calculation contents executed by the control calculation unit 20 will be described separately for each function. As shown in FIG. 1, the control calculation unit 20 includes a marker lighting unit 21, an epipolar line creation unit 31, and a reference epipolar line selection. Unit 32, marker image recognition unit 33, marker image position determination unit 34, marker image identification unit 35, object monitoring unit 36, and video display unit 25.
The memory 41 has an area for storing various data necessary for the control calculation unit 20 to execute processing, an absolute coordinate storage unit 42 for storing absolute coordinates (XYZ coordinates), a helmet A helmet coordinate storage unit 44 that stores coordinates (X′Y′Z ′ coordinates) and positions of LEDs 18a, 18b, 18c,.

ここで、絶対座標について説明する。絶対座標は、カメラ装置11に固定された3次元座標系(XYZ座標)であり、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図3に示すように、第二カメラ14から第一カメラ12への方向をX軸方向とし、X軸方向に垂直かつ天井に垂直で下向きな方向をZ軸方向とし、X軸方向に垂直かつ天井に水平で右向き方向をY軸方向とするように定義し、原点を第一カメラ12と第二カメラ14との中点として定義するようにしてある。   Here, the absolute coordinates will be described. The absolute coordinate is a three-dimensional coordinate system (XYZ coordinate) fixed to the camera device 11 and can arbitrarily determine the origin and the direction of each coordinate axis. In this embodiment, as shown in FIG. The direction from the camera 14 to the first camera 12 is the X-axis direction, the direction perpendicular to the X-axis direction and perpendicular to the ceiling and downward is the Z-axis direction, the direction perpendicular to the X-axis direction and horizontal to the ceiling, and the rightward direction is the Y-axis. The origin is defined as the midpoint between the first camera 12 and the second camera 14.

また、ヘルメット座標は、ヘルメット16に固定された3次元座標系(X’Y’Z’座標)であり、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図2に示すように、LED18aからLED18bへの方向をX’軸方向とし、LED18cを含む面でX’軸方向に垂直な方向をY’軸方向とし、X’軸方向及びY’軸方向に垂直な方向をZ’軸方向とするように定義し、原点(O)をLED18aとして定義するようにしてある。
さらに、ヘルメット16の現在位置と現在角度とを、XYZ座標系を用いて表現するために、ヘルメット16上の基準点をLED18a(ヘルメット座標の原点)と定め、さらにX’軸方向を基準方向と定めている。これにより、ヘルメット16の現在位置と現在角度とは、絶対座標(XYZ座標)におけるLED18aの位置(x,y,z)と、X’軸方向のX軸方向、Y軸方向、Z軸方向に対するそれぞれの角度(θ,φ,ψ)とを用いて表現することができる。
The helmet coordinates are a three-dimensional coordinate system (X′Y′Z ′ coordinates) fixed to the helmet 16, and the origin and the direction of each coordinate axis can be arbitrarily determined. In this embodiment, FIG. As shown, the direction from the LED 18a to the LED 18b is the X′-axis direction, the direction perpendicular to the X′-axis direction on the surface including the LED 18c is the Y′-axis direction, and the direction perpendicular to the X′-axis direction and the Y′-axis direction. Is defined as the Z′-axis direction, and the origin (O) is defined as the LED 18a.
Further, in order to express the current position and current angle of the helmet 16 using the XYZ coordinate system, the reference point on the helmet 16 is defined as the LED 18a (the origin of the helmet coordinates), and the X′-axis direction is defined as the reference direction. It has established. Thereby, the current position and the current angle of the helmet 16 are relative to the position (x, y, z) of the LED 18a in absolute coordinates (XYZ coordinates) and the X-axis direction, the Y-axis direction, and the Z-axis direction in the X′-axis direction. Each angle (θ, φ, ψ) can be used for expression.

マーカー点灯部21は、LED群18(マーカー群)のうち、第一カメラ12及び第二カメラ14それぞれの画像に同時に撮影される3つのLED(マーカー)であり、かつ、これらLED間を結んだ線が正三角形を形成しない位置関係となる3つのLEDを点灯する制御を行うものである。このとき、その他のLEDは、消灯されていなければならない。 The marker lighting part 21 is three LEDs (markers) simultaneously photographed in the images of the first camera 12 and the second camera 14 in the LED group 18 (marker group), and connects these LEDs. Control is performed to turn on three LEDs in a positional relationship where the line does not form an equilateral triangle. At this time, the other LEDs must be turned off.

エピポーラライン作成部31は、第一カメラ12で映し出された各マーカー像のエピポーララインを、第二カメラ14で映し出された第二画像B上に作成する制御を行うものである。つまり、図6(a)に示すように、第一カメラ12と3つのLED18a、18b、18cとを結ぶそれぞれのエピポーラライン(仮想直線)La、Lb、Lcが存在するとして、エピポーララインLx、Ly、Lzを第二カメラ14で撮影したとして、第二画像B上にエピポーララインLx、Ly、Lzを作成することになる。なお、第二画像B上のエピポーララインLa、Lb、Lcの位置は、第一画像A上でのLED像18x、18y、18zが映し出される位置、及び、第一カメラ12の撮影方向と第二カメラ14の撮影方向との関係に基づいて一意的に定まる。 The epipolar line creation unit 31 performs control to create an epipolar line of each marker image projected by the first camera 12 on the second image B projected by the second camera 14. That is, as shown in FIG. 6A, assuming that there are respective epipolar lines (virtual straight lines) La, Lb, Lc connecting the first camera 12 and the three LEDs 18a, 18b, 18c, the epipolar lines Lx, Ly , Lz is taken by the second camera 14, epipolar lines Lx, Ly, Lz are created on the second image B. The positions of the epipolar lines La, Lb, and Lc on the second image B are the positions at which the LED images 18x, 18y, and 18z are projected on the first image A, the shooting direction of the first camera 12, and the second direction. It is uniquely determined based on the relationship with the shooting direction of the camera 14.

基準エピポーラライン選択部32は、第二画像B上において、エピポーラライン間で最も離れているエピポーララインを基準エピポーララインとして選択する制御を行うものである。
例えば、図6(b)に示すように、第二画像B上において、第二画像B上の中心を通りかつXb軸に対して垂直となる垂線lを作成することにより、垂線lとエピポーララインLx、Ly、Lzとの交点lx、ly、lzの位置を算出する。さらに、各交点lx、ly、lz間の距離を算出することで、最も離れている交点lxを選択する。この結果、図6(c)に示すように、選択された交点lxに対応するエピポーララインLxを基準エピポーララインとして選択することになる。
The reference epipolar line selection unit 32 performs control for selecting, on the second image B, the epipolar line that is farthest between the epipolar lines as the reference epipolar line.
For example, as shown in FIG. 6B, by creating a perpendicular line 1 passing through the center of the second image B and perpendicular to the Xb axis on the second image B, the perpendicular line l and the epipolar line are created. The positions of intersections lx, ly, and lz with Lx, Ly, and Lz are calculated. Furthermore, the farthest intersection lx is selected by calculating the distance between the intersections lx, ly, and lz. As a result, as shown in FIG. 6C, the epipolar line Lx corresponding to the selected intersection point lx is selected as the reference epipolar line.

マーカー像認識部33は、第二画像B上において、基準エピポーララインに距離が最も近いマーカー像を、基準エピポーララインに対応するマーカー像と同一のマーカーの画像であると認識する制御を行うものである。このとき、最も離れているエピポーララインLxを基準エピポーララインとして選択しているので、第二画像B上に映し出される基準エピポーララインに対応するLED像18sも、他のLED像18t、18uと離れているので、基準エピポーララインに対応するマーカー像を確実に特定することができる。 The marker image recognizing unit 33 performs control for recognizing the marker image having the closest distance to the reference epipolar line on the second image B as the same marker image as the marker image corresponding to the reference epipolar line. is there. At this time, since the furthest epipolar line Lx is selected as the reference epipolar line, the LED image 18s corresponding to the reference epipolar line displayed on the second image B is also separated from the other LED images 18t and 18u. Therefore, the marker image corresponding to the reference epipolar line can be reliably identified.

マーカー像位置決定部34は、第一画像A及び第二画像Bのそれぞれの画像上において、マーカー像認識部33で認識されたマーカー像に対する残りのマーカー像の位置を決定する制御を行うものである。
例えば、図7(a)に示すように、第一画像A上において、マーカー像認識部33で認識されたマーカー像18xを始点として、他の2つのマーカー像18y、18zを終点とするベクトル<18x18y>、ベクトル<18x18z>を作成して外積<18x18y>×<18x18z>を算出することにより、マーカー像認識部33で認識されたマーカー像18xに対する残りのマーカー像18y、18zの位置関係を決定する。同様に、第二画像B上において、マーカー像認識部33で認識されたマーカー像18sを始点として、他の2つのマーカー像18t、18uを終点とするベクトル<18s18t>、ベクトル<18s18u>を作成して外積<18s18t>×<18s18u>を算出することにより、マーカー像認識部33で認識されたマーカー像18sに対する残りのマーカー像18t、18uの位置関係を決定する。
なお、下述するように、<18x18y>は、18xを始点として18yを終点とするベクトルのことであり、<18x18z>、<18s18t>、<18s18u>も同様である。
The marker image position determination unit 34 performs control for determining the position of the remaining marker image with respect to the marker image recognized by the marker image recognition unit 33 on each of the first image A and the second image B. is there.
For example, as shown in FIG. 7A, on the first image A, a vector <with the marker image 18x recognized by the marker image recognition unit 33 as a start point and the other two marker images 18y and 18z as an end point <18x18y> and vector <18x18z> are generated and outer product <18x18y> × <18x18z> is calculated to determine the positional relationship of the remaining marker images 18y and 18z with respect to the marker image 18x recognized by the marker image recognition unit 33. To do. Similarly, on the second image B, a vector <18s18t> and a vector <18s18u> are generated with the marker image 18s recognized by the marker image recognition unit 33 as the start point and the other two marker images 18t and 18u as the end point. By calculating the outer product <18s18t> × <18s18u>, the positional relationship of the remaining marker images 18t and 18u with respect to the marker image 18s recognized by the marker image recognition unit 33 is determined.
As described below, <18x18y> is a vector starting from 18x and ending at 18y, and the same applies to <18x18z>, <18s18t>, and <18s18u>.

Figure 0004858346
Figure 0004858346

マーカー像識別部35は、マーカー像位置決定部34で決定されたマーカー像の位置関係に基づいて、第一画像A上における残りのLED像と第二画像B上における残りのマーカー像との組を対応付ける制御を行うものである。
例えば、第一画像A及び第二画像Bのそれぞれの画像上において、それぞれ算出された外積<18x18y>×<18x18z>と外積<18s18t>×<18s18u>とを比較して、外積が同符号となる場合には、図 7(b)に示すように、マーカー像18xを中心としたマーカー像18yからマーカー像18zへの方向と、マーカー像18sを中心としたマーカー像18sからマーカー像18tへの方向とが同じ回転方向となるとして、マーカー像18yとマーカー像18tとの組及びマーカー像18zとマーカー像18uとの組を対応付け、一方、外積が異符号となる場合には、マーカー像18xを中心としたマーカー像18yからマーカー像18zへの方向と、マーカー像18sを中心としたマーカー像18sからマーカー像18tへの方向とが異なる回転方向となるとして、LED像18yとマーカー像18tとの組及びマーカー像18zとマーカー像18uとの組を対応付ける。よって、図5に示すように、第二画像Bにおいて、2つのLED像18y、18zに対応するエピポーララインLb、Lcが極近い距離に存在する場合でも、外積を用いて、第一画像A上におけるLED像18y、18zと第二画像上におけるLED像18t、18uとの組をそれぞれ対応付けることができる。
The marker image identifying unit 35 is a set of the remaining LED image on the first image A and the remaining marker image on the second image B based on the positional relationship of the marker images determined by the marker image position determining unit 34. The control which matches is performed.
For example, on the images of the first image A and the second image B, the calculated outer product <18x18y> × <18x18z> is compared with the outer product <18s18t> × <18s18u>, and the outer product has the same sign. In this case, as shown in FIG. 7B, the direction from the marker image 18y centered on the marker image 18x to the marker image 18z and the marker image 18s centered on the marker image 18s to the marker image 18t. Assuming that the direction is the same rotation direction, a pair of the marker image 18y and the marker image 18t and a pair of the marker image 18z and the marker image 18u are associated with each other. The direction from the marker image 18y centered on the marker image 18z to the marker image 18z and the marker image 18s centered on the marker image 18s As the different rotation direction and the direction to the associates set and set of the marker image 18z and the marker image 18u of the LED image 18y and the marker image 18t. Therefore, as shown in FIG. 5, in the second image B, even when the epipolar lines Lb and Lc corresponding to the two LED images 18y and 18z exist at a very close distance, Each of the LED images 18y and 18z and the LED images 18t and 18u on the second image can be associated with each other.

物体モニタリング部36は、基準マーカー間距離選択部36aと、マーカー間距離認識部36bと、マーカー識別部36cとを備える。
基準マーカー間距離選択部36aは、マーカー点灯部21で点灯したLEDについて、ヘルメット座標(X’Y’Z’座標)上において最も短いマーカー間距離を基準マーカー間距離として選択する制御を行うものである。
例えば、ヘルメット座標記憶部44に記憶されているデータに基づいて、マーカー点灯部21で点灯したLED18a、18b、18cのマーカー間距離a、b、cを比較することにより、最も短いマーカー間距離aを基準マーカー間距離として選択する。
The object monitoring unit 36 includes a reference inter-marker distance selection unit 36a, an inter-marker distance recognition unit 36b, and a marker identification unit 36c.
The inter-reference marker distance selection unit 36a performs control to select the shortest inter-marker distance as the reference inter-marker distance on the helmet coordinates (X′Y′Z ′ coordinates) for the LEDs lit by the marker lighting unit 21. is there.
For example, based on the data stored in the helmet coordinate storage unit 44, by comparing the inter-marker distances a, b, c of the LEDs 18a, 18b, 18c lit by the marker lighting unit 21, the shortest inter-marker distance a As the distance between the reference markers.

マーカー間距離認識部36bは、マーカー像認識部33及びマーカー像識別部35により対応付けられた各LED像の組について、絶対座標(XYZ座標)上での探索用マーカーの位置を三角測量で算出することにより、最も短い探索用マーカー間距離を、基準マーカー間距離と同一のマーカー間距離であると認識する制御を行うものである。
具体的には、まず、図3に示すように、絶対座標(XYZ座標)におけるLED18lの位置は、第一カメラ12からLED18lへの方向角αと、第二カメラ14からLED18lへの方向角βと、第一カメラ12と第二カメラ14との間のカメラ間距離dとがわかれば一意的に算出できる。方向角αは、第一カメラ12の撮影方向と第一画像AにおけるLED像18xの位置とにより定めることができ、同様に、方向角βは、第二カメラ14の撮影方向と第二画像BにおけるLED像18sの位置とにより定めることができる。また、カメラ間距離dは既知であることから、絶対座標(XYZ座標)における探索用LED18lの位置が算出される。同様に、絶対座標(XYZ座標)における他の探索用LED18m、18nの位置についても算出される。その後、探索用マーカー間距離を比較することで、最も短い探索用マーカー間距離を、基準マーカー間距離と同一のマーカー間距離であると認識する。このとき、探索用LED18l、18m、18nが、LED18a、18b、18cのいずれにそれぞれ対応するかは認識できない。
The inter-marker distance recognition unit 36b calculates the position of the search marker on the absolute coordinates (XYZ coordinates) by triangulation for each set of LED images associated by the marker image recognition unit 33 and the marker image identification unit 35. By doing so, control is performed to recognize that the shortest distance between markers for search is the same distance between markers as the distance between reference markers.
Specifically, first, as shown in FIG. 3, the position of the LED 18l in absolute coordinates (XYZ coordinates) is a direction angle α from the first camera 12 to the LED 18l and a direction angle β from the second camera 14 to the LED 18l. And the inter-camera distance d between the first camera 12 and the second camera 14 can be uniquely calculated. The direction angle α can be determined by the shooting direction of the first camera 12 and the position of the LED image 18x in the first image A. Similarly, the direction angle β is determined by the shooting direction of the second camera 14 and the second image B. Can be determined by the position of the LED image 18s. Further, since the inter-camera distance d is known, the position of the search LED 18l in absolute coordinates (XYZ coordinates) is calculated. Similarly, the positions of the other search LEDs 18m and 18n in absolute coordinates (XYZ coordinates) are also calculated. Thereafter, by comparing the distances between the search markers, the shortest distance between the search markers is recognized as the same inter-marker distance as the reference marker distance. At this time, it cannot be recognized which of the search LEDs 18l, 18m, and 18n corresponds to each of the LEDs 18a, 18b, and 18c.

マーカー識別部36cは、マーカー間距離認識部36bで認識されたマーカー間距離を基準にして、ヘルメット16の外表面に取り付けられたLED18a、18b、18cと、探索用LED18l、18m、18nとの組を対応付けることにより、絶対座標(XYZ座標)上でのヘルメット16の位置(x,y,z)と角度(θ,φ,ψ)とを決定する制御を行うものである。このとき、点灯した3つのLED18a、18b、18cをそれぞれ結んだ線は、等距離でないようにしてあるので、一つのマーカー間距離の組が対応付けできれば、例えば、絶対座標において、マーカー間距離認識部36bで認識されたマーカー間距離上にない探索用LEDを始点として、他の2つの探索用LEDを終点とするベクトルを作成して外積を算出することにより、探索用LEDの位置関係を決定する。同様に、絶対座標において、マーカー間距離認識部36bで認識されたマーカー間距離上にないLEDを始点として、他の2つのLEDを終点とするベクトルを作成して外積を算出することにより、LEDの位置関係を決定する。その後、探索用LED及びLEDのそれぞれ算出されたベクトル積を比較して、外積が同符号となる場合には、同じ回転方向となるとして組を対応付け、一方、外積が異符号となる場合には、異なる回転方向となるとして組を対応付ける。このようにして、ヘルメット16の外表面に取り付けられたLED18a、18b、18cと、第一画像Aと第二画像Bとにより算出された探索用マーカー18l、18m、18nとの組を対応付けることができることになる。なお、ヘルメット16の位置(x,y,z)と角度(θ,φ,ψ)とは、絶対座標(XYZ座標)におけるLED18aの位置(x,y,z)と、X’軸方向のX軸方向、Y軸方向、Z軸方向に対するそれぞれの角度(θ,φ,ψ)とを用いて表現する。
映像表示部25は、ヘルメット16の位置(x,y,z)と角度(θ,φ,ψ)とに基づいて、映像表示光を出射する制御を行うものである。これにより、装着者は、表示器による表示映像を視認することができるようになる。
The marker identifying unit 36c is a set of LEDs 18a, 18b, 18c attached to the outer surface of the helmet 16 and search LEDs 18l, 18m, 18n based on the inter-marker distance recognized by the inter-marker distance recognizing unit 36b. , The position (x, y, z) of the helmet 16 on the absolute coordinates (XYZ coordinates) and the angle (θ, φ, ψ) are determined. At this time, since the lines connecting the three lit LEDs 18a, 18b, and 18c are not equidistant, if one pair of marker distances can be associated with each other, for example, distance recognition between markers can be performed in absolute coordinates. The positional relationship of the search LEDs is determined by calculating a cross product by creating a vector starting from the search LED that is not on the marker distance recognized by the unit 36b and ending with the other two search LEDs. To do. Similarly, in absolute coordinates, by calculating a cross product by creating a vector starting from an LED that is not on the inter-marker distance recognized by the inter-marker distance recognition unit 36b and ending with the other two LEDs, the LED is calculated. The positional relationship of is determined. Thereafter, the calculated vector products of the search LED and the LED are compared, and when the outer product has the same sign, the pair is associated with the same rotation direction, while the outer product has a different sign. Associate the pairs as having different rotational directions. In this way, it is possible to associate a set of the LEDs 18a, 18b, 18c attached to the outer surface of the helmet 16 with the search markers 18l, 18m, 18n calculated from the first image A and the second image B. It will be possible. The position (x, y, z) and the angle (θ, φ, ψ) of the helmet 16 are the position (x, y, z) of the LED 18a in absolute coordinates (XYZ coordinates) and X in the X′-axis direction. It represents using each angle ((theta), (phi), (psi)) with respect to an axial direction, a Y-axis direction, and a Z-axis direction.
The video display unit 25 performs control for emitting video display light based on the position (x, y, z) and the angle (θ, φ, ψ) of the helmet 16. As a result, the wearer can visually recognize the display image on the display.

次に、HMT10によるヘルメット16のモニタリング、すなわち時々刻々の位置、角度をモニタリングする動作について説明する。図8は、HMT10によりヘルメット16の位置(x,y,z)、角度(θ,φ,ψ)をモニタリングする際の動作フローを示す図である。
まず、ステップS101の処理において、マーカー点灯部21は、3つのLED(ただし3つのLEDの位置関係が正三角形とならないもの)を点灯し、それ以外のLEDを消灯する。
Next, the operation of monitoring the helmet 16 by the HMT 10, that is, the operation of monitoring the position and angle every moment will be described. FIG. 8 is a diagram showing an operation flow when the position (x, y, z) and the angle (θ, φ, ψ) of the helmet 16 are monitored by the HMT 10.
First, in the process of step S101, the marker lighting unit 21 turns on three LEDs (however, the positional relationship of the three LEDs does not become an equilateral triangle) and turns off the other LEDs.

次に、ステップS102の処理において、マーカー点灯部21は、第一カメラ12の第一画像A及び第二カメラ14の第二画像B内に、点灯中の3つのLEDが映っているか否かを確認する。第一カメラ12の第一画像A及び第二カメラ14の第二画像B内に、点灯中の3つのLEDが映っていないと判定されたときには、ステップS101の処理に戻り、3つのLEDを消灯して、他のLEDの組を点灯させることになる。つまり、第一カメラ12の第一画像A及び第二カメラ14の第二画像B内に、点灯中の3つのLEDが映っていると判定されるときまで、ステップS101及びS102の処理は繰り返される。一方、第一カメラ12の第一画像A及び第二カメラ14の第二画像B内に、点灯中の3つのLEDが映っていると判定されたときには、ステップS103の処理に進む。図4は、このときの画像例を示す。 Next, in the process of step S <b> 102, the marker lighting unit 21 determines whether or not three LEDs that are lit are reflected in the first image A of the first camera 12 and the second image B of the second camera 14. Check. When it is determined that the three LEDs that are lit are not shown in the first image A of the first camera 12 and the second image B of the second camera 14, the process returns to step S101 and the three LEDs are turned off. Then, another set of LEDs is turned on. That is, the processes of steps S101 and S102 are repeated until it is determined that three LEDs that are lit are reflected in the first image A of the first camera 12 and the second image B of the second camera 14. . On the other hand, when it is determined that the three LEDs that are lit are reflected in the first image A of the first camera 12 and the second image B of the second camera 14, the process proceeds to step S103. FIG. 4 shows an image example at this time.

次に、ステップS103の処理において、エピポーラライン作成部31は、第一カメラ12で映し出された各マーカー像のエピポーララインを、第二カメラ14で映し出された第二画像B上に作成する(図6(a)参照)。
次に、ステップS104の処理において、基準エピポーラライン選択部32は、第二画像B上において、エピポーラライン間で最も離れているエピポーララインを基準エピポーララインとして選択する。例えば、図6(b)に示すように、第二画像B上において、第二画像B上の中心を通りかつXb軸に対して垂直となる垂線lを作成することにより、垂線lとエピポーララインLa、Lb、Lcとの交点la、lb、lcの位置を算出する。さらに、各交点la、lb、lc間の距離を算出することで、最も離れている交点laを選択する。この結果、選択された交点laに対応するエピポーララインLaを基準エピポーララインとして選択することになる。
Next, in the process of step S103, the epipolar line creation unit 31 creates an epipolar line of each marker image projected by the first camera 12 on the second image B projected by the second camera 14 (FIG. 6 (a)).
Next, in the process of step S <b> 104, the reference epipolar line selection unit 32 selects the epipolar line farthest among the epipolar lines on the second image B as the reference epipolar line. For example, as shown in FIG. 6B, by creating a perpendicular line 1 passing through the center of the second image B and perpendicular to the Xb axis on the second image B, the perpendicular line l and the epipolar line are created. The positions of intersections la, lb, and lc with La, Lb, and Lc are calculated. Further, by calculating the distance between the intersection points la, lb, and lc, the intersection point la that is furthest away is selected. As a result, the epipolar line La corresponding to the selected intersection point la is selected as the reference epipolar line.

次に、ステップS105の処理において、マーカー像認識部33は、第二画像B上において、基準エピポーララインに距離が最も近いマーカー像を、基準エピポーララインに対応するマーカー像と同一のマーカーの画像であると認識する。
次に、ステップS106の処理において、マーカー像位置決定部34は、第一画像A及び第二画像Bのそれぞれの画像上において、マーカー像認識部33で認識されたマーカー像に対する残りのマーカー像の位置関係を決定する。例えば、図7(a)に示すように、第一画像A上において、マーカー像認識部33で認識されたマーカー像18xを始点として、他の2つのマーカー像18y、18zを終点とするベクトル<18x18y>、ベクトル<18x18z>を作成して外積<18x18y>×<18x18z>を算出することにより、マーカー像認識部33で認識されたマーカー像18xに対する残りのマーカー像18y、18zの位置関係を決定する。同様に、第二画像B上において、マーカー像認識部33で認識されたマーカー像18sを始点として、他の2つのマーカー像18t、18uを終点とするベクトル<18s18t>、ベクトル<18s18u>を作成して外積<18s18t>×<18s18u>を算出することにより、マーカー像認識部33で認識されたマーカー像18sに対する残りのマーカー像18t、18uの位置関係を決定する。
Next, in the process of step S105, the marker image recognition unit 33 uses the same marker image as the marker image corresponding to the reference epipolar line, on the second image B, for the marker image having the closest distance to the reference epipolar line. Recognize that there is.
Next, in the process of step S106, the marker image position determination unit 34 determines the remaining marker image for the marker image recognized by the marker image recognition unit 33 on each of the first image A and the second image B. Determine the positional relationship. For example, as shown in FIG. 7A, on the first image A, a vector <with the marker image 18x recognized by the marker image recognition unit 33 as a start point and the other two marker images 18y and 18z as an end point <18x18y> and vector <18x18z> are generated and outer product <18x18y> × <18x18z> is calculated to determine the positional relationship of the remaining marker images 18y and 18z with respect to the marker image 18x recognized by the marker image recognition unit 33. To do. Similarly, on the second image B, a vector <18s18t> and a vector <18s18u> are generated with the marker image 18s recognized by the marker image recognition unit 33 as the start point and the other two marker images 18t and 18u as the end point. By calculating the outer product <18s18t> × <18s18u>, the positional relationship of the remaining marker images 18t and 18u with respect to the marker image 18s recognized by the marker image recognition unit 33 is determined.

次に、ステップS107の処理において、マーカー像識別部35は、マーカー像位置決定部34で決定されたマーカー像の位置関係に基づいて、第一画像A上における残りのLED像と第二画像B上における残りのマーカー像との組を対応付ける。例えば、第一画像A及び第二画像Bのそれぞれの画像上において、それぞれ算出された外積<18x18y>×<18x18z>と外積<18s18t>×<18s18u>とを比較して、外積が同符号となる場合には、マーカー像18yとマーカー像18tとの組及びマーカー像18zとマーカー像18uとの組を対応付け、一方、外積が異符号となる場合には、LED像18yとマーカー像18tとの組及びマーカー像18zとマーカー像18uとの組を対応付ける。 Next, in the process of step S107, the marker image identification unit 35, based on the positional relationship of the marker images determined by the marker image position determination unit 34, the remaining LED image and the second image B on the first image A. Corresponding pairs with the remaining marker images above. For example, on the images of the first image A and the second image B, the calculated outer product <18x18y> × <18x18z> is compared with the outer product <18s18t> × <18s18u>, and the outer product has the same sign. In this case, a pair of the marker image 18y and the marker image 18t and a pair of the marker image 18z and the marker image 18u are associated with each other. On the other hand, if the outer product has a different sign, the LED image 18y and the marker image 18t And a set of the marker image 18z and the marker image 18u are associated with each other.

次に、ステップS108の処理において、基準マーカー間距離選択部36aは、マーカー点灯部21で点灯したLEDについて、ヘルメット座標(X’Y’Z’座標)上において、最も短いマーカー間距離を基準マーカー間距離として選択する。
次に、ステップS109の処理において、マーカー間距離認識部36bは、マーカー像認識部33及びマーカー像識別部35により対応付けられた各LED像の組について、絶対座標(XYZ座標)上での探索用LED18l、18m、18nの位置を三角測量で算出することにより、最も短い探索用マーカー間距離を、基準マーカー間距離と同一のマーカー間距離であると認識する。
Next, in the process of step S108, the reference marker distance selection unit 36a determines the shortest marker distance on the helmet coordinates (X'Y'Z 'coordinates) for the LEDs lit by the marker lighting unit 21. Select as distance.
Next, in the process of step S109, the inter-marker distance recognition unit 36b searches for the set of LED images associated by the marker image recognition unit 33 and the marker image identification unit 35 on the absolute coordinates (XYZ coordinates). By calculating the positions of the LEDs 18l, 18m, and 18n by triangulation, the shortest distance between markers for search is recognized as the same distance between markers as the distance between reference markers.

次に、ステップS110の処理において、マーカー識別部36cは、マーカー間距離認識部36bで認識されたマーカー間距離を基準にして、ヘルメット16の外表面に取り付けられたLED18a、18b、18cと、第一画像Aと第二画像Bとにより算出された探索用LED18l、18m、18nとの組を対応付けることにより、絶対座標(XYZ座標)上でのヘルメット16の位置(x,y,z)と角度(θ,φ,ψ)とを決定する制御を行うものである。
次に、ステップS111の処理において、映像表示部25は、ヘルメット16の位置(x,y,z)と角度(θ,φ,ψ)とに基づいて、映像表示光を出射する。
Next, in the process of step S110, the marker identifying unit 36c includes LEDs 18a, 18b, 18c attached to the outer surface of the helmet 16 with reference to the inter-marker distance recognized by the inter-marker distance recognizing unit 36b, By associating a set of search LEDs 181, 18 m, 18 n calculated from one image A and second image B, the position (x, y, z) and angle of the helmet 16 on absolute coordinates (XYZ coordinates) Control for determining (θ, φ, ψ) is performed.
Next, in the process of step S111, the video display unit 25 emits video display light based on the position (x, y, z) and the angle (θ, φ, ψ) of the helmet 16.

次に、ステップS112の処理において、本フローチャートを終了させるか否かを判断する。本フローチャートを終了させないと判定されたときには、ステップS101の処理に戻る。つまり、本フローチャートを終了させると判定されるときまで、ステップS101〜ステップS112の処理は繰り返される。
一方、本フローチャートを終了させると判断されたときには、本フローチャートを終了させる。
以上の演算処理により、空間(絶対座標)に対するヘルメット16の位置、角度を決定し、ヘルメットの位置や方向を特定することができる。すなわち、時々刻々変化するヘルメット16の位置や方向を特定することができる。
Next, in the process of step S112, it is determined whether or not to end this flowchart. If it is determined not to end the flowchart, the process returns to step S101. That is, the processing of step S101 to step S112 is repeated until it is determined to end the flowchart.
On the other hand, when it is determined to end the flowchart, the flowchart is ended.
Through the above arithmetic processing, the position and angle of the helmet 16 with respect to the space (absolute coordinates) can be determined, and the position and direction of the helmet can be specified. That is, the position and direction of the helmet 16 that changes from moment to moment can be specified.

また、上述したHMT10において、マーカー点灯部21は、3つのLEDを点灯するとともに、マーカー像位置決定部34は、マーカー像認識部33で認識されたマーカー像を始点として、他の2つのマーカー像を終点とするベクトルを作成して外積を算出する構成としたが、マーカー点灯部は、4つのLEDを点灯するとともに、マーカー像位置決定部は、4つのLED像の中心を重心として、マーカー像認識部33で認識されたマーカー像を始点として右回り又は左回りに他の3つのマーカー像の順番を算出するような構成としてもよい。 Further, in the HMT 10 described above, the marker lighting unit 21 lights three LEDs, and the marker image position determination unit 34 uses the marker image recognized by the marker image recognition unit 33 as a starting point and the other two marker images. The marker lighting unit lights up four LEDs, and the marker image position determination unit uses the center of the four LED images as the center of gravity to create a marker image. The order of the other three marker images may be calculated clockwise or counterclockwise from the marker image recognized by the recognition unit 33 as a starting point.

本発明は、識別情報を持たない発光体を利用する光学測定方式のモーショントラッカ等に利用することができる。   The present invention can be used for an optical measurement type motion tracker that uses a light emitter having no identification information.

本発明の一実施形態であるHMTの概略構成を示す図。The figure which shows schematic structure of HMT which is one Embodiment of this invention. 本発明に係る頭部装着型表示装置付ヘルメットに取り付けられたLED群の概略構成を示す図。The figure which shows schematic structure of the LED group attached to the helmet with a head mounted display apparatus which concerns on this invention. 本発明に係る絶対座標について説明する図。The figure explaining the absolute coordinate which concerns on this invention. エピポーラ幾何学に基づく予測を説明する図。The figure explaining the prediction based on epipolar geometry. エピポーラ幾何学に基づく予測を説明する図。The figure explaining the prediction based on epipolar geometry. 本発明に係るエピポーラ幾何学に基づく予測を説明する図。The figure explaining the prediction based on the epipolar geometry which concerns on this invention. 本発明に係るエピポーラ幾何学に基づく予測を説明する図。The figure explaining the prediction based on the epipolar geometry which concerns on this invention. 図1のヘッドモーショントラッカによる動作を説明するフローチャート。The flowchart explaining the operation | movement by the head motion tracker of FIG.

符号の説明Explanation of symbols

10 ヘッドモーショントラッカ
12 第一カメラ
14 第二カメラ
16 ヘルメット(物体)
18 LED群(マーカー群)
20 演算制御部
21 マーカー点灯部
31 エピポーラライン作成部
32 基準エピポーラライン選択部
33 マーカー像認識部
34 マーカー像位置決定部
35 マーカー像識別部
10 Head Motion Tracker 12 First Camera 14 Second Camera 16 Helmet (Object)
18 LED group (marker group)
DESCRIPTION OF SYMBOLS 20 Computation control part 21 Marker lighting part 31 Epipolar line creation part 32 Reference | standard epipolar line selection part 33 Marker image recognition part 34 Marker image position determination part 35 Marker image identification part

Claims (6)

物体の外表面に取り付けられた少なくとも3つの点灯可能なマーカーを識別するためのマーカー像識別装置であって、
点灯した少なくとも3つのマーカーが含まれる第一画像を撮影する第一カメラと、
前記第一カメラと異なる方向から、少なくとも3つのマーカーが含まれる第二画像を同時に撮影する第二カメラと、
前記第一カメラで映し出された各マーカー像のエピポーララインを、前記第二画像上に作成するエピポーラライン作成部と、
前記第二画像上において、エピポーラライン間で最も離れているエピポーララインを基準エピポーララインとして選択する基準エピポーラライン選択部と、
前記第二画像上において、基準エピポーララインに距離が最も近いマーカー像を、前記基準エピポーララインに対応するマーカー像と同一のマーカーの画像であると認識するマーカー像認識部と、
前記第一画像及び第二画像のそれぞれの画像上において、前記マーカー像認識部で認識されたマーカー像に対する残りのマーカー像の位置関係を決定するマーカー像位置決定部と、
前記マーカー像位置決定部で決定されたマーカー像の位置関係に基づいて、前記第一画像上における残りのマーカー像と第二画像上における残りのマーカー像との組を対応付けるマーカー像識別部とを備えることを特徴とするマーカー像識別装置。
A marker image identification device for identifying at least three illuminable markers attached to an outer surface of an object,
A first camera that captures a first image that includes at least three illuminated markers;
A second camera for simultaneously capturing a second image including at least three markers from a different direction from the first camera;
An epipolar line creation unit that creates an epipolar line of each marker image projected by the first camera on the second image;
On the second image, a reference epipolar line selection unit that selects, as a reference epipolar line, an epipolar line farthest between the epipolar lines;
On the second image, a marker image recognition unit that recognizes a marker image having the closest distance to the reference epipolar line as an image of the same marker as the marker image corresponding to the reference epipolar line;
On each of the first image and the second image, a marker image position determination unit that determines the positional relationship of the remaining marker image with respect to the marker image recognized by the marker image recognition unit;
A marker image identifying unit for associating a set of the remaining marker image on the first image and the remaining marker image on the second image based on the positional relationship of the marker images determined by the marker image position determining unit; A marker image identification device comprising:
前記マーカーは、前記物体上に定義される物体固定座標上での位置を定められるとともに、
前記第一カメラ及び第二カメラを用いて、空間上に定義された絶対座標が記憶され、
さらに、前記マーカー像認識部及びマーカー像識別部により対応付けられた各マーカー像の組について、前記絶対座標上での位置を三角測量で算出することで探索用マーカーを作成することにより、前記探索用マーカーとマーカーとの組を対応付けて絶対座標上での物体の位置と角度とを決定する物体モニタリング部を備えることを特徴とする請求項1に記載のマーカー像識別装置。
The marker is positioned on an object fixed coordinate defined on the object,
Using the first camera and the second camera, absolute coordinates defined in space are stored,
Further, for each set of marker images associated by the marker image recognition unit and the marker image identification unit, a search marker is created by calculating a position on the absolute coordinate by triangulation, thereby obtaining the search The marker image identification device according to claim 1, further comprising an object monitoring unit that determines a position and an angle of the object on an absolute coordinate by associating a set of the marker for use with the marker.
点灯した少なくとも3つのマーカーをそれぞれ結んだ線は、等距離でなく、
前記物体モニタリング部は、前記物体固定座標上において、最も短い又は最も長いマーカー間距離を基準マーカー間距離として選択する基準マーカー間距離選択部と、
前記マーカー像認識部及びマーカー像識別部により対応付けられた各マーカー像の組について、前記絶対座標上での探索用マーカーの位置を三角測量で算出することにより、最も短い又は最も長い探索用マーカー間距離を、前記基準マーカー間距離と同一のマーカー間距離であると認識するマーカー間距離認識部と、
前記マーカー間距離認識部で認識されたマーカー間距離を基準にして、前記物体の外表面に取り付けられたマーカーと、探索用マーカーとの組を対応付けることにより、前記絶対座標上での物体の位置と角度とを決定するマーカー識別部とを備えることを特徴とする請求項2に記載のマーカー像識別装置。
The lines connecting at least three lit markers are not equidistant,
The object monitoring unit, on the object fixed coordinates, a distance between reference marker selection unit for selecting the shortest or the longest distance between markers as a distance between reference markers,
For each set of marker images associated by the marker image recognition unit and the marker image identification unit, the shortest or longest search marker is calculated by triangulation the position of the search marker on the absolute coordinates. An inter-marker distance recognition unit that recognizes that the inter-distance is the same inter-marker distance as the reference inter-marker distance;
The position of the object on the absolute coordinates by associating a set of the marker attached to the outer surface of the object and the marker for search with reference to the distance between the markers recognized by the inter-marker distance recognition unit The marker image identification device according to claim 2, further comprising a marker identification unit that determines the angle and the angle.
物体の外表面に取り付けられた少なくとも3つの点灯可能なマーカーと、
点灯した少なくとも3つのマーカーが含まれる第一画像を撮影する第一カメラと、
前記第一カメラと異なる方向から、点灯した少なくとも3つのマーカーが含まれる第二画像を撮影する第二カメラとを備えるマーカー像識別システムにおけるマーカー像識別方法であって、
(a)前記第一カメラで映し出された各マーカー像のエピポーララインを、前記第二カメラで映し出された第二画像上に作成するエピポーラライン作成工程と、
(b)前記第二画像上において、エピポーラライン間で最も離れているエピポーララインを基準エピポーララインとして選択する基準エピポーラライン選択工程と、
(c)前記第二画像上において、基準エピポーララインに距離が最も近いマーカー像を、前記基準エピポーララインに対応するマーカー像と同一のマーカーの像であると認識するマーカー像認識工程と、
(d)前記第一画像及び第二画像のそれぞれの画像上において、前記マーカー像認識工程で認識されたマーカー像に対する残りのマーカー像の位置関係を決定するマーカー像位置決定工程と、
(e)前記マーカー像位置決定工程で決定されたマーカー像の位置関係に基づいて、前記第一画像上における残りのマーカー像と第二画像上における残りのマーカー像との組を対応付けるマーカー像識別工程とを含むことを特徴とするマーカー像識別方法。
At least three illuminable markers attached to the outer surface of the object;
A first camera that captures a first image that includes at least three illuminated markers;
A marker image identification method in a marker image identification system comprising a second camera that captures a second image including at least three markers that are lit from a direction different from the first camera,
(A) an epipolar line creating step of creating an epipolar line of each marker image projected by the first camera on a second image projected by the second camera;
(B) On the second image, a reference epipolar line selection step of selecting, as a reference epipolar line, an epipolar line farthest between the epipolar lines;
(C) on the second image, a marker image recognition step for recognizing that the marker image having the closest distance to the reference epipolar line is the same marker image as the marker image corresponding to the reference epipolar line;
(D) a marker image position determining step for determining a positional relationship of the remaining marker images with respect to the marker image recognized in the marker image recognition step on each of the first image and the second image;
(E) Marker image identification for associating a set of the remaining marker image on the first image and the remaining marker image on the second image based on the positional relationship of the marker images determined in the marker image position determining step A marker image identifying method comprising the steps of:
前記マーカーは、前記物体上に定義される物体固定座標上での位置を定められるとともに、
前記第一カメラ及び第二カメラを用いて、空間上に定義された絶対座標が記憶され、
さらに、(f)前記マーカー像認識工程及びマーカー像識別工程により対応付けられた各マーカー像の組について、前記絶対座標上での位置を三角測量で算出することで探索用マーカーを作成することにより、前記探索用マーカーとマーカーとの組を対応付けて絶対座標上での物体の位置と角度とを決定する物体モニタリング工程を含むことを特徴とする請求項4に記載のマーカー像識別方法。
The marker is positioned on an object fixed coordinate defined on the object,
Using the first camera and the second camera, absolute coordinates defined in space are stored,
Further, (f) For each set of marker images associated by the marker image recognition step and the marker image identification step, by creating a search marker by calculating the position on the absolute coordinate by triangulation 5. The marker image identification method according to claim 4, further comprising an object monitoring step of determining a position and an angle of an object on an absolute coordinate by associating a set of the search marker and the marker.
点灯した少なくとも3つのマーカーをそれぞれ結んだ線は、等距離でなく、
(f)物体モニタリング工程は、(f−1)前記物体固定座標上において、最も短い又は最も長いマーカー間距離を基準マーカー間距離として選択する基準マーカー間距離選択工程と、
(f−2)前記マーカー像認識部及びマーカー像識別部により対応付けられた各マーカー像の組について、前記絶対座標上での探索用マーカーの位置を三角測量で算出することにより、最も短い又は最も長い探索用マーカー間距離を、前記基準マーカー間距離と同一のマーカー間距離であると認識するマーカー間距離認識工程と、
(f−3)前記マーカー間距離認識部で認識されたマーカー間距離を基準にして、前記物体の外表面に取り付けられたマーカーと、探索用マーカーとの組を対応付けることにより、前記絶対座標上での物体の位置と角度とを決定するマーカー識別工程とを含むことを特徴とする請求項5に記載のマーカー像識別方法。
The lines connecting at least three lit markers are not equidistant,
(F) The object monitoring step (f-1) a reference marker distance selection step of selecting the shortest or longest marker distance as the reference marker distance on the object fixed coordinates;
(F-2) For each set of marker images associated by the marker image recognition unit and the marker image identification unit, by calculating the position of the search marker on the absolute coordinates by triangulation, the shortest or An inter-marker distance recognition step for recognizing that the longest inter-marker distance is the same inter-marker distance as the reference inter-marker distance;
(F-3) By associating a set of a marker attached to the outer surface of the object and a search marker with reference to the inter-marker distance recognized by the inter-marker distance recognition unit, The marker image identification method according to claim 5, further comprising a marker identification step of determining an object position and angle at
JP2007194309A 2007-07-26 2007-07-26 Marker image identification device and marker image identification method Active JP4858346B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007194309A JP4858346B2 (en) 2007-07-26 2007-07-26 Marker image identification device and marker image identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007194309A JP4858346B2 (en) 2007-07-26 2007-07-26 Marker image identification device and marker image identification method

Publications (2)

Publication Number Publication Date
JP2009031086A JP2009031086A (en) 2009-02-12
JP4858346B2 true JP4858346B2 (en) 2012-01-18

Family

ID=40401755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007194309A Active JP4858346B2 (en) 2007-07-26 2007-07-26 Marker image identification device and marker image identification method

Country Status (1)

Country Link
JP (1) JP4858346B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014203593A1 (en) * 2013-06-21 2017-02-23 株式会社エルム Remotely controlled unmanned air vehicle control system
GB201812669D0 (en) * 2018-08-03 2018-09-19 Vicon Motion Systems Ltd Active marker device and method of design thereof

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06137865A (en) * 1992-10-27 1994-05-20 Canon Inc Corresponding point extracting method for multiple images
JPH0719832A (en) * 1993-06-21 1995-01-20 Canon Inc Extracting method for corresponding points of pulirity of images
JPH07294215A (en) * 1994-04-25 1995-11-10 Canon Inc Method and apparatus for processing image
JPH08241410A (en) * 1995-03-07 1996-09-17 Oki Electric Ind Co Ltd Corresponding point searching device and method
JPH08279045A (en) * 1995-04-04 1996-10-22 Oki Electric Ind Co Ltd Device and method for searching for corresponding point
JP3912638B2 (en) * 1998-07-13 2007-05-09 日本ビクター株式会社 3D image processing device
JP4288443B2 (en) * 2000-09-07 2009-07-01 株式会社島津製作所 Head motion tracker and its measurement value correction method
JP4238586B2 (en) * 2003-01-30 2009-03-18 ソニー株式会社 Calibration processing apparatus, calibration processing method, and computer program
JP4480083B2 (en) * 2005-02-23 2010-06-16 アイシン精機株式会社 Object recognition device
JP4396564B2 (en) * 2005-04-01 2010-01-13 株式会社島津製作所 Object monitoring method and motion tracker using the same
JP2006300656A (en) * 2005-04-19 2006-11-02 Nippon Telegr & Teleph Corp <Ntt> Image measuring technique, device, program, and recording medium
JP2007107962A (en) * 2005-10-12 2007-04-26 Yamamoto Denko Kk Measuring system of measuring object and separated measuring system under transmission line

Also Published As

Publication number Publication date
JP2009031086A (en) 2009-02-12

Similar Documents

Publication Publication Date Title
JP4396564B2 (en) Object monitoring method and motion tracker using the same
CN110458961B (en) Augmented reality based system
US20180005446A1 (en) Pick to Augmented Reality
US8649025B2 (en) Methods and apparatus for real-time digitization of three-dimensional scenes
JP2007071782A (en) System for measuring position attitude and method of measuring, same and control program
JP5505363B2 (en) Motion tracker device
JP5292725B2 (en) Motion tracker device
US20130113890A1 (en) 3d location sensing system and method
JP7414395B2 (en) Information projection system, control device, and information projection control method
JP4858346B2 (en) Marker image identification device and marker image identification method
JP2013057541A (en) Method and device for measuring relative position to object
TWI646449B (en) Three-dimensional positioning system and method thereof
JP4918830B2 (en) Position measurement system
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP4872768B2 (en) Head motion tracker device
JP2008065416A (en) Head motion tracker device
JP4656016B2 (en) Motion tracker device
JP2008026731A (en) Marker device
JP4656017B2 (en) Head motion tracker device
JP6670682B2 (en) Position detection method and position detection system
JP4892982B2 (en) Magnetic mapping device
JP2007334762A (en) Head motion tracker
JP2009139988A (en) Motion tracker device
JP2009041919A (en) Head motion tracker apparatus
US20230336944A1 (en) Location and space aware adaptive synchronization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

R151 Written notification of patent or utility model registration

Ref document number: 4858346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3