JP2006033329A - Optical marker system - Google Patents

Optical marker system Download PDF

Info

Publication number
JP2006033329A
JP2006033329A JP2004208369A JP2004208369A JP2006033329A JP 2006033329 A JP2006033329 A JP 2006033329A JP 2004208369 A JP2004208369 A JP 2004208369A JP 2004208369 A JP2004208369 A JP 2004208369A JP 2006033329 A JP2006033329 A JP 2006033329A
Authority
JP
Japan
Prior art keywords
light emitting
light
identification information
time information
emitting means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004208369A
Other languages
Japanese (ja)
Other versions
JP4418935B2 (en
Inventor
Akira Uchiumi
章 内海
Hirotake Yamazoe
大丈 山添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004208369A priority Critical patent/JP4418935B2/en
Publication of JP2006033329A publication Critical patent/JP2006033329A/en
Application granted granted Critical
Publication of JP4418935B2 publication Critical patent/JP4418935B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an optical marker system which can presume the position and the attitude of a plurality of moving imaging means without using a special imaging means. <P>SOLUTION: LED markers 21-2m are mounted at predetermined positions, and transmit identification information and time information which are assigned single-mindedly to a self by changing the luminescence state. At this point, cameras 31-3n photograph the image including the luminance points of the LED markers 21-2m, and detect the flashing states of the LED markers 21-2m from the images photographed by candidate point extracting units 41-4n and marker tracing units 51-5n. An information detector 61 extract the identification information and the time information of the LED markers 21-2m, detect the positions of the LED markers 21-2m on the image based on the extracted identification information and time information; and presumes the position and the attitude of the cameras 31-3n based on the identification information, the time information, and the position of the LED markers 21-2m detected by a camera position attitude presuming unit 71. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、時刻情報及び識別情報を送信する光学マーカシステムに関するものである。   The present invention relates to an optical marker system that transmits time information and identification information.

近年、ビデオカメラやカメラ付携帯電話等の普及により、映像を撮影する機会が増加している。例えば、コンサートや運動会等のイベントにおいては、多数のカメラによる様々な視点からの映像が得られる。これらの映像を蓄積及び加工して特定の映像列を抽出したり、新たな画像を作成したりするために、所定のマーカを含めてシーンを撮影することによりシーンの映像を撮影しながらマーカが発信する情報を取得することが種々提案されている。   In recent years, with the spread of video cameras, camera-equipped mobile phones, and the like, opportunities for taking pictures have increased. For example, in an event such as a concert or an athletic meet, videos from various viewpoints by a large number of cameras can be obtained. In order to store and process these videos and extract a specific video sequence or create a new image, the marker is recorded while shooting the scene video by shooting the scene including a predetermined marker. Various proposals have been made to acquire information to be transmitted.

例えば、高速なイメージセンサを用いて画像を撮影しながらマーカのID(識別情報)を取得したり(非特許文献1参照)、正方形に配置したマーカを通常の可視光カメラを用いて撮影してマーカ配置の形状を探索したりすることが行われている(非特許文献2参照)。
松下伸行他、「Id cam:シーンとidを同時に取得可能なスマートカメラ」、情処学論、Vol.43、No.12、2001年、pp.3664−pp.3674 青木恒、「カメラで読み取る赤外線タグとその応用」、インタラクティブシステムとソフトウェア VIII、2000年、pp.131−pp.136
For example, the ID (identification information) of the marker is acquired while capturing an image using a high-speed image sensor (see Non-Patent Document 1), or the marker arranged in a square is captured using a normal visible light camera. Searching for the shape of the marker arrangement is performed (see Non-Patent Document 2).
Nobuyuki Matsushita et al., “Id cam: Smart camera that can acquire scene and id at the same time”, linguistic theory, Vol. 43, no. 12, 2001, pp. 3664-pp. 3674 Tsuyoshi Aoki, “Infrared tags read by cameras and their applications”, Interactive System and Software VIII, 2000, pp. 131-pp. 136

しかしながら、前者の方法では、専用のイメージセンサを用いる必要があり、一般のカメラで撮影された映像に対して適用することはできない。また、後者の方法では、マーカの配置形状を検出しているため、シーン中に配置できるマーカの数等が制限され、カメラの位置及び姿勢が変動した場合に適用することができない。   However, in the former method, it is necessary to use a dedicated image sensor, and it cannot be applied to an image shot with a general camera. In the latter method, since the marker arrangement shape is detected, the number of markers that can be arranged in the scene is limited, and the method cannot be applied when the position and orientation of the camera change.

本発明の目的は、独立に撮影された複数の映像間の同期を取ることができるとともに、複数の映像間で対応する点を算出することができる光学マーカシステムを提供することである。   An object of the present invention is to provide an optical marker system that can synchronize between a plurality of independently photographed images and can calculate corresponding points between the plurality of images.

本発明の他の目的は、特殊な撮像手段を用いることなく、移動する複数の撮像手段の位置及び姿勢を推定することができる光学マーカシステムを提供することである。   Another object of the present invention is to provide an optical marker system that can estimate the positions and orientations of a plurality of moving imaging means without using special imaging means.

本発明に係る光学マーカシステムは、予め定められた位置に取り付けられ、発光状態を変化させることにより自身に対して一意的に割り付けられた識別情報と撮影時刻を特定するための時刻情報とを送信する複数の発光手段と、前記発光手段の発光点を含む画像を撮影する複数の撮影手段と、前記撮影手段により撮影された画像から前記発光手段の発光状態を検出して時刻情報と前記発光手段の識別情報及び画像上の位置を検出する検出手段とを備えるものである。   The optical marker system according to the present invention is attached to a predetermined position and transmits identification information uniquely assigned to itself by changing a light emission state and time information for specifying a shooting time. A plurality of light emitting means, a plurality of photographing means for photographing an image including a light emitting point of the light emitting means, a light emission state of the light emitting means is detected from an image photographed by the photographing means, and time information and the light emitting means Identification information and detection means for detecting the position on the image.

本発明に係る光学マーカシステムにおいては、予め定められた位置に取り付けられた複数の発光手段が、その発光状態を変化させることにより、自身に対して一意的に割り付けられた識別情報と撮影時刻を特定するための時刻情報とを送信し、複数の撮影手段が発光手段の発光点を含む画像を撮影し、撮影手段により撮影された各画像から発光手段の発光状態を検出して時刻情報と発光手段の識別情報及び画像上の位置が検出される。   In the optical marker system according to the present invention, a plurality of light emitting means attached at predetermined positions change the light emission state, thereby identifying identification information and photographing time assigned uniquely to itself. The time information for specifying is transmitted, the plurality of photographing means take images including the light emitting point of the light emitting means, detect the light emission state of the light emitting means from each image taken by the photographing means, and the time information and light emission The identification information of the means and the position on the image are detected.

このようにして、各撮影手段により撮影された画像内に観測される各発光手段の識別情報を得ることができるとともに、各撮影手段により撮影された画像の撮影時刻を特定することができる。これにより独立に撮影された映像間の時間ずれを算出して擬似的に同期を得ることが可能となり、さらに各発光手段の識別情報を利用して複数の映像間で対応する点を算出し、複数の映像をつなぎ合わせて広視野動画像を生成したり、撮影手段間の相対的な3次元位置及び姿勢を推定したり、各識別情報を持つ発光手段の3次元位置を計測しておくことにより、発光手段の画像上の投影位置から撮影手段の3次元的絶対位置及び姿勢を推定することができる。   In this way, it is possible to obtain identification information of each light emitting means observed in an image photographed by each photographing means, and to specify the photographing time of the image photographed by each photographing means. This makes it possible to calculate the time lag between the images taken independently and to obtain a pseudo-synchronization, and further to calculate the corresponding points between multiple images using the identification information of each light emitting means, A wide-field moving image is generated by connecting a plurality of images, a relative three-dimensional position and posture between photographing means are estimated, and a three-dimensional position of a light emitting means having each identification information is measured. Thus, the three-dimensional absolute position and orientation of the photographing means can be estimated from the projection position on the image of the light emitting means.

前記検出手段により検出された前記発光手段の識別情報、時刻情報及び位置を基に前記撮影手段の位置及び姿勢を推定する推定手段をさらに備えることが好ましい。   It is preferable to further include estimation means for estimating the position and orientation of the photographing means based on the identification information, time information and position of the light emitting means detected by the detection means.

この場合、検出された発光手段の識別情報、時刻情報及び位置を基に撮影手段の位置及び姿勢が推定される。ここで、各発光手段が予め定められた位置に取り付けられており、各発光手段の3次元位置が既知であるため、この3次元位置と各撮影時刻の画像上における発光手段の2次元位置から各撮像手段の位置及び姿勢を順次推定することができる。この結果、特殊な撮像手段を用いることなく、移動する複数の撮像手段の位置及び姿勢を推定することができる。   In this case, the position and orientation of the photographing means are estimated based on the detected identification information, time information, and position of the light emitting means. Here, since each light emitting means is attached at a predetermined position and the three-dimensional position of each light emitting means is known, the three-dimensional position and the two-dimensional position of the light emitting means on the image at each photographing time are determined. The position and orientation of each imaging means can be estimated sequentially. As a result, it is possible to estimate the positions and orientations of a plurality of moving imaging means without using special imaging means.

前記複数の発光手段は、同一時刻を特定するための時刻情報を送信し、前記検出手段は、前記複数の発光手段の発光状態が時間軸上で同一時刻を表すパターンとなる区間において時刻情報を抽出することが好ましい。   The plurality of light emitting units transmit time information for specifying the same time, and the detecting unit displays time information in a section in which the light emission states of the plurality of light emitting units are in a pattern representing the same time on the time axis. It is preferable to extract.

この場合、複数の発光手段の発光状態が時間軸上で同一時刻を表すパターンとなる区間が時刻情報の送信期間となるため、識別情報と分離して時刻情報を正確に抽出することができる。   In this case, since the section in which the light emission states of the plurality of light emitting means are patterns representing the same time on the time axis is the transmission period of the time information, the time information can be accurately extracted separately from the identification information.

前記複数の発光手段は、同一時刻を特定するための時刻情報を送信し、前記検出手段は、前記撮影手段により撮影された画像から予め定められたパターンに適合する光点を前記発光手段の光点の候補点として追跡しながら、発光状態が時間軸上で同一時刻を表すパターンとなる候補点を前記発光手段の光点として検出し、検出した光点の識別情報と時刻情報とを抽出することが好ましい。   The plurality of light emitting means transmit time information for specifying the same time, and the detecting means detects a light spot that matches a predetermined pattern from an image photographed by the photographing means. While tracking as a candidate point, a candidate point whose light emission pattern becomes a pattern representing the same time on the time axis is detected as a light point of the light emitting means, and identification information and time information of the detected light point are extracted. It is preferable.

この場合、撮影された画像から予め定められたパターンに適合する光点を発光手段の光点の候補点として追跡しながら、発光状態が時間軸上で同一時刻を表すパターンとなる候補点を発光手段の光点として検出しているので、発光手段以外の光点を誤検出することなく、発光手段の光点を高精度に検出することができ、検出した発光手段の光点から識別情報及び時刻情報を正確に抽出することができる。   In this case, while tracking a light spot that matches a predetermined pattern from the photographed image as a light spot candidate point of the light emitting means, the light emitting state emits a candidate point that becomes a pattern representing the same time on the time axis. Since the light spot of the light emitting means is detected, the light spot of the light emitting means can be detected with high accuracy without erroneously detecting a light spot other than the light emitting means. Time information can be accurately extracted.

前記複数の発光手段は、点灯確率が所定範囲内に入るように識別情報と時刻情報とを送信し、前記検出手段は、前記撮影手段により撮影された画像から予め定められたパターンに適合する光点を前記発光手段の光点の候補点として追跡しながら、点灯確率が所定範囲内に入る候補点を前記発光手段の光点として検出し、検出した光点の識別情報と時刻情報とを抽出することが好ましい。   The plurality of light emitting means transmit identification information and time information so that a lighting probability falls within a predetermined range, and the detecting means is a light that matches a predetermined pattern from an image photographed by the photographing means. While tracking points as light spot candidate points of the light emitting means, candidate points whose lighting probability falls within a predetermined range are detected as light spots of the light emitting means, and identification information and time information of the detected light spots are extracted It is preferable to do.

この場合、撮影された画像から予め定められたパターンに適合する光点を発光手段の光点の候補点として追跡しながら、点灯確率が所定範囲内に入る候補点を発光手段の光点として検出しているので、発光手段以外の光点を誤検出することなく、発光手段の光点を高精度に検出することができ、検出した発光手段の光点から識別情報及び時刻情報を正確に抽出することができる。   In this case, a candidate point whose lighting probability falls within a predetermined range is detected as a light spot of the light emitting means while tracking a light spot that matches a predetermined pattern from the photographed image as a candidate point of the light spot of the light emitting means. Therefore, the light spot of the light emitting means can be detected with high accuracy without erroneously detecting the light spot other than the light emitting means, and the identification information and time information are accurately extracted from the detected light spot of the light emitting means. can do.

前記複数の発光手段は、赤外光を点灯又は消灯することにより識別情報と時刻情報とを送信し、前記複数の撮影手段は、赤外光及び可視光を用いて画像を撮影することが好ましい。   Preferably, the plurality of light emitting units transmit identification information and time information by turning on or off infrared light, and the plurality of photographing units capture images using infrared light and visible light. .

この場合、人間に直接見えない赤外光を用いて識別情報及び時刻情報を送信することができるので、シーン中の人間の行動に対して視覚的妨害となることなく、識別情報及び時刻情報を確実に送信することができる。   In this case, since identification information and time information can be transmitted using infrared light that is not directly visible to humans, the identification information and time information can be transmitted without causing visual interference with human behavior in the scene. It can be transmitted reliably.

本発明によれば、各撮影手段により撮影された画像内に観測される各発光手段の識別情報を得ることができるとともに、各撮影手段により撮影された画像の撮影時刻を特定することができる。これにより独立に撮影された映像間の時間ずれを算出して擬似的に同期を得ることが可能となり、さらに各発光手段の識別情報を利用して複数の映像間で対応する点を算出し、複数の映像をつなぎ合わせて広視野動画像を生成したり、撮影手段間の相対的な3次元位置及び姿勢を推定したり、各識別情報を持つ発光手段の3次元位置を計測しておくことにより、発光手段の画像上の投影位置から撮影手段の3次元的絶対位置及び姿勢を推定することができる。   According to the present invention, it is possible to obtain identification information of each light emitting means observed in an image photographed by each photographing means, and to specify the photographing time of the image photographed by each photographing means. This makes it possible to calculate the time lag between the images taken independently and to obtain a pseudo-synchronization, and further to calculate the corresponding points between multiple images using the identification information of each light emitting means, A wide-field moving image is generated by connecting a plurality of images, a relative three-dimensional position and posture between photographing means are estimated, and a three-dimensional position of a light emitting means having each identification information is measured. Thus, the three-dimensional absolute position and orientation of the photographing means can be estimated from the projection position on the image of the light emitting means.

本発明によれば、複数の発光手段を撮影手段で撮影することにより、撮影画像内に記録された発光手段の発光パターンから撮影時刻情報とともに、各発光手段の識別情報を得ることができる。すなわち、複数の発光手段が共通の時刻情報を送信することにより、その冗長性を利用してより安定に時刻情報を抽出することができる。また、発光手段の発光パターンとして示される識別情報から、撮影画像内に記録された各発光手段が多数の発光手段のいずれかであるかは一意に特定することができる。   According to the present invention, by photographing a plurality of light emitting means with the photographing means, identification information of each light emitting means can be obtained together with the photographing time information from the light emission pattern of the light emitting means recorded in the photographed image. That is, when a plurality of light emitting units transmit common time information, the time information can be more stably extracted using the redundancy. Further, from the identification information shown as the light emission pattern of the light emitting means, it is possible to uniquely identify which of the light emitting means each of the light emitting means recorded in the captured image is.

本発明の持つ上記の基本的な特徴により、幅広い応用が可能となる。ここではまず、そのうちのいくつかを例示する。一つの応用形態は、時間情報と識別情報とを直接利用するものであり、例えば、同一のシーンを複数の撮影手段で同時に独立に撮影して得られた複数の映像列に対して、各映像列内に記録された各発光手段の位置を利用して複数の映像間で対応する点を算出し複数の映像列をつなぎ合わせて広視野動画像を生成することができる。映像間で擬似的に同期を取るために時刻情報を利用し、複数の映像列内で対応する発光手段を特定するために識別情報を利用する。   The above basic features of the present invention enable a wide range of applications. Here, some of them will be exemplified first. One application mode uses the time information and the identification information directly. For example, each video is obtained for a plurality of video sequences obtained by independently photographing the same scene with a plurality of photographing means simultaneously. By using the position of each light emitting means recorded in the row, the corresponding points between the plurality of videos can be calculated, and the plurality of video rows can be connected to generate a wide-field moving image. Time information is used for pseudo-synchronization between videos, and identification information is used for specifying the corresponding light emitting means in a plurality of video sequences.

もう一つの応用形態は、時刻情報と識別情報とを利用して複数の撮影手段の相対的な位置関係を推定するものであり、例えば時刻情報によって擬似的に同期が取られた各撮影画像内における各発光手段の位置を利用して複数の映像間で対応する点を算出し、算出された対応点の位置関係から撮影手段間の幾何学的な位置(相対的な位置及び姿勢)を求めることができる。   Another application mode is to estimate the relative positional relationship between a plurality of photographing means using time information and identification information. For example, in each captured image that is pseudo-synchronized with time information. By using the position of each light emitting means in the image, corresponding points between a plurality of images are calculated, and the geometric position (relative position and orientation) between the imaging means is obtained from the calculated positional relationship of the corresponding points. be able to.

他の応用形態として、時刻情報及び識別情報に加え各発光手段の3次元位置を利用するものであり、例えば各発光手段の3次元位置を予め測定しておくことにより発光手段の画像上の投影位置から撮影手段の3次元絶対位置及び姿勢を推定することができる。   As another application mode, the three-dimensional position of each light emitting means is used in addition to the time information and the identification information. For example, the projection of the light emitting means on the image by measuring the three-dimensional position of each light emitting means in advance. The three-dimensional absolute position and posture of the photographing means can be estimated from the position.

以下では、上記応用形態のうち、時刻情報と識別情報とを利用して複数の撮像手段の相対的な位置及び姿勢を推定する応用形態について、実装例を示す。なお、画像間の複数の対応点から相対位置及び姿勢を算出する手法としては、エピポーラ幾何による方法、平面射影変換による方法などが知られているが、ここでは対象となる3次元点(発光手段)が同一平面上にあるという拘束条件を利用し比較的容易に相対位置及び姿勢の推定が可能な平面射影変換による方法について述べる。   Below, an implementation example is shown about the application form which estimates the relative position and attitude | position of a several imaging means using time information and identification information among the said application forms. In addition, as a method for calculating the relative position and orientation from a plurality of corresponding points between images, a method using epipolar geometry, a method using plane projective transformation, and the like are known, but here a target three-dimensional point (light emitting means) The method by plane projective transformation that makes it possible to estimate the relative position and orientation relatively easily using the constraint condition that) is on the same plane will be described.

以下、本発明の一実施の形態による光学マーカシステムについて図面を参照しながら説明する。図1は、本発明の一実施の形態による光学マーカシステムの構成を示すブロック図である。   Hereinafter, an optical marker system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an optical marker system according to an embodiment of the present invention.

図1に示す光学マーカシステムは、点灯制御装置11、m個(mは2以上の整数)のLEDマーカ21〜2m、n個(nは2以上の整数)のカメラ31〜3n、n個の候補点抽出部41〜4n、n個のマーカ追跡部51〜5n、情報検出部61、カメラ位置姿勢推定部71及び画像合成部81を備える。   The optical marker system shown in FIG. 1 includes a lighting control device 11, m (m is an integer of 2 or more) LED markers 21 to 2m, n (n is an integer of 2 or more) cameras 31 to 3n, n Candidate point extraction units 41 to 4n, n marker tracking units 51 to 5n, an information detection unit 61, a camera position and orientation estimation unit 71, and an image synthesis unit 81 are provided.

LEDマーカ21〜2mは、赤外光を発光するLED(Light Emitting Diode)及び駆動回路等から構成され、撮影シーン中の所定位置、例えば本実施の形態においては同一平面上に取り付けられ、各LEDマーカ21〜2mの3次元位置は予めカメラ位置姿勢推定部71に記憶される。   The LED markers 21 to 2m are configured by LEDs (Light Emitting Diodes) that emit infrared light, a drive circuit, and the like, and are attached to a predetermined position in a shooting scene, for example, on the same plane in the present embodiment. The three-dimensional positions of the markers 21 to 2m are stored in the camera position / orientation estimation unit 71 in advance.

点灯制御装置11は、所定の点滅制御プログラムを実行するコンピュータ等から構成され、LEDマーカ21〜2mの各々に対して一意的に割り付けられた識別情報と、すべてのLEDマーカ21〜2mに対して同一の時刻情報とを送信するようにLEDマーカ21〜2mの点滅状態を個別に制御する。なお、点灯制御装置の構成は、上記の例に特に限定されず、一部又は全部を専用のハードウエア回路から構成してもよく、また、所定の基準クロック等を用いて時刻情報を同一タイミングで送出することができる場合、LEDマーカ21〜2m内に個別に点灯制御装置を設け、点灯制御装置11を省略してもよい。   The lighting control device 11 is composed of a computer or the like that executes a predetermined blinking control program, and has identification information uniquely assigned to each of the LED markers 21 to 2m and all the LED markers 21 to 2m. The blinking states of the LED markers 21 to 2m are individually controlled so as to transmit the same time information. The configuration of the lighting control device is not particularly limited to the above example, and part or all of the lighting control device may be configured by a dedicated hardware circuit, and time information is set at the same timing using a predetermined reference clock or the like. In the case where the lighting control device 11 can be sent out, the lighting control device 11 may be individually provided in the LED markers 21 to 2 m and the lighting control device 11 may be omitted.

点灯制御装置11の点滅制御によりLEDマーカ21〜2mが発光する光として、赤外光であることが好ましい。この場合、人間に直接見えない赤外光を用いて識別情報及び時刻情報を送信することができるので、シーン中の人間の行動に対して視覚的妨害となることなく、識別情報及び時刻情報を確実に送信することができる。また、赤外領域のうちより短い波長領域(可視光寄りの波長域)の光であることがより好ましく、本実施の形態では、波長890nmの赤外光を用いている。この場合、通常の可視光撮影用のビデオカメラでも当該波長域に十分な検出感度を有するため、通常の可視光撮影用のビデオカメラを用いてシーンを撮影しながら識別情報及び時刻情報を高精度に検出することができる。   The light emitted from the LED markers 21 to 2m by the blinking control of the lighting control device 11 is preferably infrared light. In this case, since identification information and time information can be transmitted using infrared light that is not directly visible to humans, the identification information and time information can be transmitted without causing visual interference with human behavior in the scene. It can be transmitted reliably. Further, light in a shorter wavelength region (wavelength region closer to visible light) in the infrared region is more preferable, and infrared light having a wavelength of 890 nm is used in this embodiment. In this case, since a normal visible light video camera has sufficient detection sensitivity in the wavelength range, the identification information and time information can be accurately obtained while shooting a scene using the normal visible light video camera. Can be detected.

なお、LEDマーカが発光する光として、上記の例に特に限定されず、可視光域の光を用いてもよい。この場合、通常の可視光撮影用のビデオカメラが十分な感度を有する波長域を用いてLEDマーカが発光する光を撮影することができ、通常の可視光撮影用のビデオカメラを用いて識別情報及び時刻情報を高精度に検出することができる。   The light emitted from the LED marker is not particularly limited to the above example, and light in the visible light range may be used. In this case, the light emitted from the LED marker can be photographed using a wavelength range in which a normal visible light video camera has sufficient sensitivity, and identification information can be obtained using a normal visible light video camera. In addition, time information can be detected with high accuracy.

ここで、識別情報と時刻情報とを送信するためのLEDマーカ21〜2mの点滅パターンについて説明する。図2は、識別情報及び時刻情報の点滅パターンの一例を示す図である。LEDマーカ21〜2mの点滅周波数とカメラ31〜3nのフレームレートとは一致しており、1秒(30フレーム)単位で連続する点滅パターンにより識別情報及び時刻情報がコード化されている。すなわち、前半の10bitが時刻情報となり、後半の20bitが識別情報となる。   Here, a blinking pattern of the LED markers 21 to 2m for transmitting identification information and time information will be described. FIG. 2 is a diagram illustrating an example of a blinking pattern of identification information and time information. The blinking frequency of the LED markers 21 to 2m and the frame rate of the cameras 31 to 3n coincide with each other, and the identification information and time information are coded by a blinking pattern that is continuous in units of 1 second (30 frames). That is, the first 10 bits are time information, and the latter 20 bits are identification information.

識別情報としては、8bitすなわち256種類のIDを想定し、それらを20bitで冗長符号化し、各LEDマーカ21〜2mから異なる識別情報が送信される。時刻情報としては、現在時刻を16進数に変換して1桁(4bit)を10bitで冗長符号化し、全てのLEDマーカ21〜2mから同じ時刻情報が送信される。   As identification information, 8 bits, that is, 256 types of IDs are assumed, they are redundantly encoded with 20 bits, and different identification information is transmitted from each of the LED markers 21 to 2m. As the time information, the current time is converted into a hexadecimal number, one digit (4 bits) is redundantly encoded with 10 bits, and the same time information is transmitted from all the LED markers 21 to 2m.

上記の符号化において、LEDマーカ21〜2mの光点(LEDの発光点)と他の光点(マーカ以外の光点)とを区別するため、LEDマーカ21〜2mの点灯確率pが一定範囲内(pL<p<pH)となるように点滅パターンを設定している。また、後述するマーカ追跡を容易にするため、kフレーム(例えば、k=3)以上連続して消灯しないように点滅パターンを設定している。これらの条件の下で識別情報及び時刻情報ともにハミング距離が最大となるように、識別情報と時刻情報とが冗長符号化されている。なお、識別情報及び時刻情報の構成は、上記の例に特に限定されず、点灯時間を変化させて識別情報及び時刻情報を送信したり、輝度を多階調化して輝度の変化により識別情報及び時刻情報を送信したり、色成分の異なる光を用いて色の変化により識別情報及び時刻情報を送信したりする等の種々の変更が可能である。   In the above encoding, the lighting probabilities p of the LED markers 21 to 2m are in a certain range in order to distinguish the light spots (LED emission points) of the LED markers 21 to 2m from other light spots (light spots other than the markers). The blinking pattern is set to be within (pL <p <pH). Further, in order to facilitate marker tracking described later, a blinking pattern is set so as not to turn off continuously for k frames (for example, k = 3) or more. Under these conditions, the identification information and the time information are redundantly encoded so that the Hamming distance is maximized for both the identification information and the time information. The configuration of the identification information and the time information is not particularly limited to the above example, and the identification information and the time information are transmitted by changing the lighting time. Various changes such as transmitting time information or transmitting identification information and time information by a color change using light having different color components are possible.

再び、図1を参照して、カメラ31〜3nは、赤外光に対して十分な感度を有する通常の可視光用ビデオカメラ(例えば、Nortech Systems社製のCCDカメラELMO CN−42H)から構成される。カメラ31〜3nは、異なるユーザにより個別に操作され、LEDマーカ21〜2mのいずれかを含む画像を撮影する。なお、カメラの構成は、上記の例に特に限定されず、種々の変更が可能であり、例えば、LEDマーカが可視光を発光する場合に可視光に対してのみ十分な感度を有する可視光用カメラを用いたり、又は、可視光用カメラと赤外光用カメラとを一体に構成して可視光用カメラによりシーンを撮影するとともに、赤外光用カメラによりLEDマーカを撮影したりしてもよい。   Referring again to FIG. 1, the cameras 31 to 3n are composed of a normal visible light video camera (for example, a CCD camera ELMO CN-42H manufactured by Nortech Systems) having sufficient sensitivity to infrared light. Is done. The cameras 31 to 3n are individually operated by different users and take images including any of the LED markers 21 to 2m. The configuration of the camera is not particularly limited to the above example, and can be variously changed. For example, when the LED marker emits visible light, it has sufficient sensitivity only for visible light. Even if a camera is used, or a visible light camera and an infrared light camera are integrally configured to shoot a scene with a visible light camera, an infrared light camera may shoot an LED marker. Good.

候補点抽出部41〜4n、マーカ追跡部51〜5n、情報検出部61、カメラ位置姿勢推定部71及び画像合成部81は、後述する位置推定処理等を実行するコンピュータ等から構成され、候補点抽出部41〜4n及びマーカ追跡部51〜5nは、カメラ31〜3n毎に設けられ、カメラ31〜3nの各画像データが並列的に処理される。   The candidate point extraction units 41 to 4n, the marker tracking units 51 to 5n, the information detection unit 61, the camera position and orientation estimation unit 71, and the image synthesis unit 81 are configured by a computer or the like that executes a position estimation process and the like described later. The extraction units 41 to 4n and the marker tracking units 51 to 5n are provided for the cameras 31 to 3n, and the image data of the cameras 31 to 3n are processed in parallel.

なお、候補点抽出部等の各ブロックの構成は、上記の例に特に限定されず、一部又は全部を専用のハードウエア回路から構成してもよく、また、処理速度が十分に速い場合、候補点抽出部及びマーカ追跡部による並列処理を順次処理に変更する等の種々の変更が可能である。また、カメラ31〜3nにより撮影された映像データを記憶する記憶装置を付加して、記憶装置に記憶されている画像データを用いてオフラインにて候補点抽出部41〜4n以降の処理を行ったり、カメラ31〜3nにより撮影された映像データを、インタネット等のネットワークを介して所定のサーバへ送信し、当該サーバにおいてオンライン又はオフラインにて候補点抽出部41〜4n以降の処理を行ったりしてもよい。   In addition, the configuration of each block such as the candidate point extraction unit is not particularly limited to the above example, part or all may be configured from a dedicated hardware circuit, and if the processing speed is sufficiently high, Various changes such as changing the parallel processing by the candidate point extraction unit and the marker tracking unit to sequential processing are possible. In addition, a storage device for storing video data captured by the cameras 31 to 3n is added, and the processing after the candidate point extraction units 41 to 4n is performed offline using the image data stored in the storage device. The video data captured by the cameras 31 to 3n is transmitted to a predetermined server via a network such as the Internet, and the processing after the candidate point extraction units 41 to 4n is performed on the server online or offline. Also good.

候補点抽出部41は、カメラ31により撮影された、LEDマーカ21〜2mを含むシーンを撮影した画像列から予め定められたパターンに適合する光点をLEDマーカ21〜2mの光点の候補点として抽出し、マーカ追跡部51は、抽出された候補点を追跡する。他の候補点抽出部42〜4n及びマーカ追跡部52〜5nも上記と同様に動作する。   The candidate point extraction unit 41 selects light spots that match a predetermined pattern from an image sequence that is captured by the camera 31 and includes a scene including the LED markers 21 to 2m, as candidate points for the light spots of the LED markers 21 to 2m. The marker tracking unit 51 tracks the extracted candidate points. Other candidate point extraction units 42 to 4n and marker tracking units 52 to 5n operate in the same manner as described above.

具体的には、点灯状態のLEDマーカ21〜2mは入力画像中で十分に明るいため、候補点抽出部41〜4nは、時刻tにおいて観測された画像Itの輝度成分Vt内を所定のテンプレートを用いて走査し、下式で計算されるスコアが一定値以上となる2次元位置(x,y)をLEDマーカ21〜2mの光点の候補点として抽出する。ここで、εはLEDマーカ21〜2mの光点であると判断する画素値の閾値である。   Specifically, since the lit LED markers 21 to 2m are sufficiently bright in the input image, the candidate point extraction units 41 to 4n use a predetermined template in the luminance component Vt of the image It observed at time t. The two-dimensional position (x, y) at which the score calculated by the following formula becomes a certain value or more is extracted as a candidate point of the light spot of the LED markers 21 to 2m. Here, ε is a threshold value of the pixel value that is determined to be the light spot of the LED markers 21 to 2m.

Figure 2006033329
Figure 2006033329

図3は、図1に示す候補点抽出部41〜4nにおいて用いられるテンプレートの一例を示す図である。候補点抽出部41〜4nにおいて、例えば、図3の(a)及び(b)に示す5×5のテンプレート又は7×7のテンプレートを用いてLEDマーカ21〜2mの光点の候補点を抽出することができる。   FIG. 3 is a diagram illustrating an example of a template used in the candidate point extraction units 41 to 4n illustrated in FIG. In the candidate point extraction units 41 to 4n, for example, the candidate points of the light spots of the LED markers 21 to 2m are extracted using the 5 × 5 template or the 7 × 7 template shown in FIGS. can do.

再び、図1を参照して、マーカ追跡部51〜5nは、LEDマーカ21〜2mの光点の候補点を時系列で追跡することにより各LEDマーカ21〜2mの点滅パターンを抽出する。まず、画像上におけるマーカp(LEDマーカ21〜2m)の光点の運動がある短い時間内(εt)では等速直線運動により近似できると仮定し、マーカ追跡部51〜5nは、時刻tまでの観測結果を用いて、追跡中のマーカpの時刻tにおける画像上の2次元観測位置xp(t)及び速度vp(t)を推定する。例えば、時刻t−Δtにおける位置及び速度の推定値をそれぞれxp(t−Δt)、vp(t−Δt)とすると、時刻tの推定値は、xp(t)=xp(t−Δt)+vp(t−Δt)・Δt、vp(t)=(xp(t−Δt)−xp(t−2Δt))/Δtとなる。   Referring to FIG. 1 again, the marker tracking units 51 to 5n extract the blinking patterns of the LED markers 21 to 2m by tracking the light spot candidate points of the LED markers 21 to 2m in time series. First, it is assumed that the movement of the light spot of the marker p (LED markers 21 to 2m) on the image can be approximated by a constant linear motion within a short time (εt), and the marker tracking units 51 to 5n Is used to estimate the two-dimensional observation position xp (t) and velocity vp (t) on the image at time t of the marker p being tracked. For example, if the estimated values of position and velocity at time t-Δt are xp (t−Δt) and vp (t−Δt), respectively, the estimated value at time t is xp (t) = xp (t−Δt) + vp (T−Δt) · Δt, vp (t) = (xp (t−Δt) −xp (t−2Δt)) / Δt.

次に、マーカ追跡部51〜5nは、次フレーム(時刻t+Δt)において、x(t+Δt)−xp(t)+Δvp(t)<εx(ここで、εxは所定の閾値)なる点を観測した場合、候補点x(t+Δt)をマーカpの観測として追跡を継続し、候補点が存在しない場合、マーカpが点灯していなかったと判断する。   Next, when the marker tracking units 51 to 5n observe a point of x (t + Δt) −xp (t) + Δvp (t) <εx (where εx is a predetermined threshold) in the next frame (time t + Δt). The candidate point x (t + Δt) is continuously tracked as an observation of the marker p, and when the candidate point does not exist, it is determined that the marker p is not lit.

また、LEDマーカ21〜2mはkフレーム以上連続して消灯しないため、マーカ追跡部51〜5nは、2kフレーム以上の期間において点灯状態が観測されなかった場合、LEDマーカ21〜2mの追跡を失敗した又はLEDマーカ21〜2mが画像から外れたと判断して追跡を終了する。   In addition, since the LED markers 21 to 2m are not continuously turned off for k frames or more, the marker tracking units 51 to 5n fail to track the LED markers 21 to 2m when the lighting state is not observed in the period of 2k frames or more. It is determined that the LED markers 21 to 2m are out of the image, and the tracking is finished.

なお、追跡中にLEDマーカ21〜2mに対応付けられなかった候補点について、マーカ追跡部51〜5nは、時刻t−εt〜時刻tの期間に撮影された画像において未対応の候補点から等速直線運動に従う候補点列を探索し、発見できた場合にこれらを同一LEDマーカによる観測点として追跡を開始する。この処理は、すべての光点に対して実行され、全探索を行う。   For candidate points that are not associated with the LED markers 21 to 2m during tracking, the marker tracking units 51 to 5n may start from unsupported candidate points in an image captured during the period from time t-εt to time t. Search is made for candidate point sequences that follow the fast linear motion, and when they are found, tracking is started as observation points by the same LED marker. This process is executed for all light spots, and a full search is performed.

情報検出部61は、マーカ追跡部51〜5nが追跡しているLEDマーカ21〜2mの光点の点滅状態からLEDマーカ21〜2mの識別情報及び時刻情報を抽出する。図4は、図1に示すLEDマーカ21〜2mの点滅パターン列の一例を示す図である。図4中に示すクロックは、LEDマーカ21〜2mを点滅させるための基準クロックである。図4に示すように、LEDマーカ21〜2m(図中マーカ1〜m)の点滅パターン列のうちハッチング部分が同一パターンとなり、この区間が時刻情報区間となり、隣接する時刻情報区間の間が識別情報の送信される識別情報区間となる。なお、点滅パターンは、本例に特に限定されず、種々の変更が可能である。例えば、符号に多少冗長性を持たせるため、1bit(0,1)で表現している部分を2bit(00,01,10,11)で表すこととし、「01」及び「10」を元表現の「0」に対応させ、「00」及び「11」を元表現の「1」に対応させることにより、元の符号「101」は、「000100」、「000111」、「001000」、「001011」、「110100」、「110111」、「111000」、「111011」のいずれで表すことも可能となる。   The information detection unit 61 extracts the identification information and time information of the LED markers 21 to 2m from the blinking state of the light spots of the LED markers 21 to 2m tracked by the marker tracking units 51 to 5n. FIG. 4 is a diagram illustrating an example of a blinking pattern string of the LED markers 21 to 2m illustrated in FIG. The clock shown in FIG. 4 is a reference clock for blinking the LED markers 21 to 2m. As shown in FIG. 4, the hatched portion of the blinking pattern sequence of the LED markers 21 to 2m (markers 1 to m in the figure) becomes the same pattern, this section becomes the time information section, and the adjacent time information sections are identified. This is an identification information section in which information is transmitted. The blinking pattern is not particularly limited to this example, and various changes can be made. For example, in order to give some redundancy to the code, a part expressed by 1 bit (0, 1) is expressed by 2 bits (00, 01, 10, 11), and “01” and “10” are original expressions. The original code “101” is “000100”, “000111”, “001000”, “001011” by matching “00” of “0” and “00” and “11” with “1” of the original expression. ”,“ 110100 ”,“ 110111 ”,“ 111000 ”, and“ 1111011 ”.

情報検出部61は、各カメラ31〜3nから得られた複数のLEDマーカ21〜2mの点滅パターン列から同一の点滅パターンを示す区間を時刻情報区間として抽出し、この時刻情報区間における情報を復号して時刻情報を抽出する。この時刻情報が各フレームの撮影時刻となる。また、情報検出部61は、隣接する時刻情報区間の間を識別情報区間として抽出し、この識別情報区間における情報を復号して各LEDマーカ21〜2mの識別情報を抽出する。   The information detection unit 61 extracts a section indicating the same blinking pattern from the blinking pattern sequence of the plurality of LED markers 21 to 2m obtained from the cameras 31 to 3n as a time information section, and decodes information in the time information section. To extract time information. This time information is the shooting time of each frame. Moreover, the information detection part 61 extracts between the adjacent time information areas as an identification information area, decodes the information in this identification information area, and extracts the identification information of each LED marker 21-2m.

さらに、情報検出部61は、抽出した識別情報及び時刻情報を用いて、各カメラ31〜3nにより撮影された画像上のLEDマーカ21〜2mの投影位置を撮影時刻毎に検出する。このとき、情報検出部61は、各光点の点灯確率p、及び時刻情報区間における他の光点との点滅パターンの相関を調べ、点灯確率pが一定範囲外(p≦pL、pH≦p)となる光点及び時刻情報区間における点滅パターンが一致しない光点を排除し、LEDマーカ21〜2mのみを抽出する。   Furthermore, the information detection part 61 detects the projection position of the LED markers 21-2m on the image image | photographed with each camera 31-3n for every imaging | photography time using the extracted identification information and time information. At this time, the information detection unit 61 checks the correlation between the lighting probability p of each light spot and the blinking pattern with other light spots in the time information section, and the lighting probability p is out of a certain range (p ≦ pL, pH ≦ p ) And a light spot whose flashing pattern does not match in the time information section is excluded, and only the LED markers 21 to 2m are extracted.

カメラ位置姿勢推定部71は、情報検出部61により検出された時刻情報を用いてカメラ31〜3nにより撮影された複数の画像間の時間合わせを行い、情報検出部61により検出された識別情報を用いて同一撮影時刻の画像間におけるLEDマーカ21〜2mの対応付けを行う。また、カメラ位置姿勢推定部71は、LEDマーカ21〜2mの3次元位置をLEDマーカ21〜2mの識別情報に対応付けて予め記憶しており、情報検出部61により検出されたLEDマーカ21〜2mの識別情報からLEDマーカ21〜2mの3次元位置を読み出し、読み出した3次元位置と情報検出部61により検出されたLEDマーカ21〜2mの2次元位置とを基にカメラ31〜3nの位置及び姿勢をそれぞれ推定する。   The camera position / orientation estimation unit 71 uses the time information detected by the information detection unit 61 to perform time alignment between a plurality of images captured by the cameras 31 to 3n, and obtains the identification information detected by the information detection unit 61. The LED markers 21 to 2m are associated between images at the same shooting time. The camera position / orientation estimation unit 71 stores the three-dimensional positions of the LED markers 21 to 2m in advance in association with the identification information of the LED markers 21 to 2m, and detects the LED markers 21 to 21 detected by the information detection unit 61. The 3D positions of the LED markers 21 to 2m are read from the identification information of 2m, and the positions of the cameras 31 to 3n based on the read 3D position and the 2D positions of the LED markers 21 to 2m detected by the information detection unit 61 And the posture are estimated.

なお、カメラ位置姿勢推定部71によるカメラ31〜3nの位置及び姿勢の推定処理としては、公知の処理を用いることができ、例えば、2台のカメラ間で観測されたマーカ点列を用いて2台のカメラ間の基本行列(fundamental matrix)を計算したり(Q.T.Luong and O.D.Faugeras. The Fundamental Matrix : theory, algorithms and stability analysis. International Journal of Computer Vision, Vol.17, No.1, pp.43-75,1995参照)、同一平面上に配置したマーカ点列を用いて2台のカメラ間の平面射影(Homography)を計算したりする(J.Weng, N.Ahuja and T.S.Huang. Motion and Structure From Point Correspondences with Error Estimation : Planar Surfaces. IEEE trans. on Signal Processing, Vol.38, No,12, pp.2691-2717,1991参照)等の手法を用いることができる。   In addition, as a process for estimating the positions and orientations of the cameras 31 to 3n by the camera position / orientation estimation unit 71, a known process can be used, for example, 2 using a marker point sequence observed between two cameras. The fundamental matrix between two cameras (QTLuong and ODFaugeras. The Fundamental Matrix: theory, algorithms and stability analysis. International Journal of Computer Vision, Vol.17, No.1, pp.43 -75,1995), and calculates the plane projection (Homography) between two cameras using a marker sequence arranged on the same plane (J. Weng, N. Ahuja and TSHuang. Motion and Structure) From Point Correspondences with Error Estimation: Planar Surfaces. See IEEE trans. On Signal Processing, Vol. 38, No. 12, pp. 2691-2717, 1991).

画像合成部81は、カメラ位置姿勢推定部71により推定されたカメラ31〜3nの位置及び姿勢を基にカメラ31〜3nにより撮影された複数の画像を合成して新たな画像を作成する。なお、画像合成部81による画像合成処理としては、公知の処理を用いることができ、例えば、カメラ間の基本行列(fundamental matrix)を用いて仮想視点映像を作成する(斎藤秀雄、金出武雄、多数のカメラによるダイナミックイベントの仮想化、情処研報 CVIM 119-016,pp.117-124,1999参照)等の手法を用いることができる。   The image composition unit 81 composes a plurality of images taken by the cameras 31 to 3n based on the positions and orientations of the cameras 31 to 3n estimated by the camera position and orientation estimation unit 71, and creates a new image. As the image composition processing by the image composition unit 81, a known process can be used. For example, a virtual viewpoint video is created using a fundamental matrix between cameras (Hideo Saito, Takeo Kanade, It is possible to use a technique such as virtualization of dynamic events by a large number of cameras, Information Processing Research Report, CVIM 119-016, pp. 117-124, 1999).

本実施の形態では、上記平面射影を利用する方法を採用することとし、LEDマーカ21〜2mを同一平面上に配置する。また、本実施の形態では、点灯制御装置11及びLEDマーカ21〜2mが発光手段の一例に相当し、カメラ31〜3nが撮影手段の一例に相当し、候補点抽出部41〜4n、マーカ追跡部51〜5n及び情報検出部61が検出手段の一例に相当し、カメラ位置姿勢推定部71が推定手段の一例に相当する。   In the present embodiment, a method using the above-mentioned planar projection is adopted, and the LED markers 21 to 2m are arranged on the same plane. In the present embodiment, the lighting control device 11 and the LED markers 21 to 2m correspond to an example of the light emitting unit, the cameras 31 to 3n correspond to an example of the photographing unit, the candidate point extracting units 41 to 4n, and the marker tracking. The units 51 to 5n and the information detection unit 61 correspond to an example of a detection unit, and the camera position / posture estimation unit 71 corresponds to an example of an estimation unit.

次に、図1に示す光学マーカシステムによる位置推定処理について説明する。図5は、図1に示す光学マーカシステムによる位置推定処理を説明するためのフローチャートである。   Next, position estimation processing by the optical marker system shown in FIG. 1 will be described. FIG. 5 is a flowchart for explaining position estimation processing by the optical marker system shown in FIG.

まず、LEDマーカ21〜2mがそれぞれ識別情報及び時刻情報を送信している状態で、カメラ31〜3nがLEDマーカ21〜2mのいずれかを含む画像を撮影し、候補点抽出部41〜4nは、撮影された画像列から予め定められたパターンに適合する光点をLEDマーカ21〜2mの光点の候補点として抽出し(ステップS11)、例えば、常時点灯等の明らかにシステムが準備したマーカと異なるものを排除する。   First, with the LED markers 21 to 2m transmitting identification information and time information respectively, the cameras 31 to 3n take images including any of the LED markers 21 to 2m, and the candidate point extraction units 41 to 4n Then, a light spot that matches a predetermined pattern is extracted from the captured image sequence as a light spot candidate point of the LED markers 21 to 2m (step S11). And something different.

次に、マーカ追跡部51〜5nは、LEDマーカ21〜2mの光点が等速直線運動を行うと仮定してLEDマーカ21〜2mの光点の候補点を時系列で追跡し(ステップS12)、LEDマーカ21〜2mの光点の点滅パターンの特徴を用いてLEDマーカ21〜2mの光点を検出する(ステップS13)。   Next, the marker tracking units 51 to 5n track the candidate points of the light spots of the LED markers 21 to 2m in time series on the assumption that the light spots of the LED markers 21 to 2m perform a uniform linear motion (step S12). ), The light spot of the LED marker 21-2m is detected using the feature of the blinking pattern of the light spot of the LED marker 21-2m (step S13).

次に、情報検出部61は、マーカ追跡部51〜5nが追跡しているLEDマーカ21〜2mの光点の点滅パターンからLEDマーカ21〜2mの識別情報及び時刻情報を抽出し、抽出した識別情報及び時刻情報を用いてLEDマーカ21〜2mの2次元位置を撮影時刻毎に検出する(ステップS14)。   Next, the information detection unit 61 extracts the identification information and time information of the LED markers 21 to 2m from the blinking patterns of the light spots of the LED markers 21 to 2m tracked by the marker tracking units 51 to 5n, and extracts the extracted identifications. Using the information and the time information, the two-dimensional positions of the LED markers 21 to 2m are detected at each photographing time (step S14).

次に、カメラ位置姿勢推定部71は、情報検出部61により検出された時刻情報を用いてカメラ31〜3nにより撮影された複数の画像間の時間合わせを行い、情報検出部61により検出された識別情報を用いて同一撮影時刻の画像間におけるLEDマーカ21〜2mの対応付けを行う(ステップS15)。次に、カメラ位置姿勢推定部71は、情報検出部61により検出されたLEDマーカ21〜2mの識別情報からLEDマーカ21〜2mの3次元位置を読み出し、読み出した3次元位置と情報検出部61により検出されたLEDマーカ21〜2mの2次元位置とを基にカメラ31〜3nの位置及び姿勢をそれぞれ推定し、その後、ステップS11以降の処理が継続され、カメラ31〜3nの位置及び姿勢が順次推定される。   Next, the camera position / orientation estimation unit 71 performs time alignment between a plurality of images taken by the cameras 31 to 3n using the time information detected by the information detection unit 61, and is detected by the information detection unit 61. Using the identification information, the LED markers 21 to 2m are associated with each other at the same shooting time (step S15). Next, the camera position / orientation estimation unit 71 reads the three-dimensional positions of the LED markers 21 to 2 m from the identification information of the LED markers 21 to 2 m detected by the information detection unit 61, and reads the read three-dimensional positions and the information detection unit 61. The positions and postures of the cameras 31 to 3n are estimated based on the two-dimensional positions of the LED markers 21 to 2m detected by the above, and then the processing after Step S11 is continued, and the positions and postures of the cameras 31 to 3n are changed. Estimated sequentially.

上記の処理により、本実施の形態では、カメラ31〜3nにより識別情報及び時刻情報を送信するLEDマーカ21〜2mの発光点を含む画像を撮影し、カメラ31〜3nにより撮影された画像からLEDマーカ21〜2mの点滅パターンを検出してLEDマーカ21〜2mの識別情報及び時刻情報を抽出するとともに、抽出した識別情報及び時刻情報を基にカメラ31〜3nの2次元位置を撮影時刻毎に検出し、検出した発光手段の識別情報、時刻情報及び位置を基にカメラ31〜3nの3次元位置及び姿勢を順次推定しているので、特殊な撮像手段を用いることなく、移動する複数のカメラ31〜3nの位置及び姿勢を推定することができる。   Through the above processing, in the present embodiment, the cameras 31 to 3n capture images including the light emission points of the LED markers 21 to 2m that transmit the identification information and time information, and the LEDs are captured from the images captured by the cameras 31 to 3n. The blinking patterns of the markers 21 to 2m are detected to extract the identification information and time information of the LED markers 21 to 2m, and the two-dimensional positions of the cameras 31 to 3n are taken for each photographing time based on the extracted identification information and time information. Since the three-dimensional positions and orientations of the cameras 31 to 3n are sequentially estimated based on the detected identification information, time information, and position of the detected light emitting means, a plurality of cameras that move without using special imaging means The positions and orientations of 31 to 3n can be estimated.

次に、上記の位置推定処理によるカメラの位置及び姿勢の推定精度等について具体例を挙げて説明する。図6は、LEDマーカの配置例を示す模式図である。図6に示すように、300mm×500mmの矩形領域の周囲に6個のLEDマーカM1〜M6を配置した後、6個のLEDマーカM1〜M6を含むシーンの映像列を撮影し、撮影画像に対して上記の位置推定処理を行った。   Next, the estimation accuracy of the position and orientation of the camera by the position estimation process will be described with a specific example. FIG. 6 is a schematic diagram illustrating an arrangement example of LED markers. As shown in FIG. 6, after arranging six LED markers M1 to M6 around a rectangular area of 300 mm × 500 mm, a video sequence of a scene including the six LED markers M1 to M6 is photographed, and the photographed image is displayed. On the other hand, the position estimation process described above was performed.

図7は、撮影画像列から抽出された6個のLEDマーカM1〜M6の軌跡を示す図であり、図8は、6個のLEDマーカM1〜M6の点滅パターンを示す図である。図7に示すように、6個のLEDマーカM1〜M6の軌跡が得られた。また、図8において矩形で囲んだ部分は、6個のLEDマーカM1〜M6で共通の信号パターンを有する時刻情報区間として抽出された区間であり、この時刻情報区間から時間情報を抽出し、一方、時刻情報区間に挟まれた区間が識別情報区間であり、この識別情報区間から各LEDマーカM1〜M6の識別情報を抽出した。   FIG. 7 is a diagram illustrating the trajectories of the six LED markers M1 to M6 extracted from the captured image sequence, and FIG. 8 is a diagram illustrating the blinking pattern of the six LED markers M1 to M6. As shown in FIG. 7, the trajectories of the six LED markers M1 to M6 were obtained. Further, a portion surrounded by a rectangle in FIG. 8 is a section extracted as a time information section having a signal pattern common to the six LED markers M1 to M6, and time information is extracted from this time information section. The section between the time information sections is the identification information section, and the identification information of each LED marker M1 to M6 is extracted from this identification information section.

次に、2台のカメラC1,C2のうち一方のカメラC1を固定し、他方のカメラC2を移動及び回転させながら、6個のLEDマーカM1〜M6を含むシーンの映像列を撮影し、撮影画像に対して上記の位置推定処理を行った。図9は、2台のカメラC1,C2の位置関係を示す模式図である。図9に示すように、初期状態では、マーカMK(LEDマーカM1〜M6)に対して2台のカメラC1,C2を同じ位置及び姿勢(高さを除く)に設定し、その後、カメラC2をX軸方向に移動させながら水平面内において回転させ、カメラC1,C2の内部パラメータを既知として、画像内の各LEDマーカM1〜M6の2次元位置を利用してカメラC1,C2の3次元位置及び姿勢を推定した。   Next, while fixing one camera C1 of the two cameras C1 and C2 and moving and rotating the other camera C2, the video sequence of the scene including the six LED markers M1 to M6 is shot and shot. The position estimation process described above was performed on the image. FIG. 9 is a schematic diagram showing the positional relationship between the two cameras C1 and C2. As shown in FIG. 9, in the initial state, two cameras C1 and C2 are set to the same position and posture (excluding height) with respect to the marker MK (LED markers M1 to M6), and then the camera C2 is set. It is rotated in the horizontal plane while moving in the X-axis direction, the internal parameters of the cameras C1 and C2 are known, and the three-dimensional positions of the cameras C1 and C2 and the two-dimensional positions of the LED markers M1 to M6 in the image are used. Posture was estimated.

図10は、このとき得られたカメラC1に対するカメラC2の相対位置及び相対姿勢の推定結果を示す図である。図10に示すように、カメラC2の移動方向であるX軸及び回転方向となる方位角(Azimuth)が変化したが、それ以外のY軸及びZ軸並びに仰角(Elevation)及び回転角(Rotation)はいずれもほぼ一定となり、LEDマーカM1〜M6の情報を利用してカメラC1,C2の3次元運動を連続的に追跡できることが確認された。   FIG. 10 is a diagram showing estimation results of the relative position and relative posture of the camera C2 with respect to the camera C1 obtained at this time. As shown in FIG. 10, the X axis that is the moving direction of the camera C2 and the azimuth angle (Azimuth) that is the rotation direction have changed, but the other Y axis and Z axis, the elevation angle (Elevation), and the rotation angle (Rotation). Are almost constant, and it was confirmed that the three-dimensional motions of the cameras C1 and C2 can be continuously tracked using the information of the LED markers M1 to M6.

なお、本発明により得られたカメラの位置及び姿勢は、種々の用途に用いることができ、例えば、イベント会場での多人数による撮影映像の統合やスタジオ撮影における実写映像とコンピュータグラフィックとの合成等の種々の映像処理に適用可能である。   Note that the position and orientation of the camera obtained by the present invention can be used for various purposes, for example, integration of captured images by a large number of people at an event venue, synthesis of live-action images and computer graphics in studio shooting, etc. It can be applied to various video processing.

本発明の一実施の形態による光学マーカシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the optical marker system by one embodiment of this invention. 識別情報及び時刻情報の点滅パターンの一例を示す図である。It is a figure which shows an example of the blink pattern of identification information and time information. 図1に示す候補点抽出部において用いられるテンプレートの一例を示す図である。It is a figure which shows an example of the template used in the candidate point extraction part shown in FIG. 図1に示すLEDマーカの点滅パターン列の一例を示す図である。It is a figure which shows an example of the blink pattern row | line | column of the LED marker shown in FIG. 図1に示す光学マーカシステムによる位置推定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the position estimation process by the optical marker system shown in FIG. LEDマーカの配置例を示す模式図である。It is a schematic diagram which shows the example of arrangement | positioning of an LED marker. 撮影画像列から抽出された6個のLEDマーカの軌跡を示す図である。It is a figure which shows the locus | trajectory of six LED markers extracted from the picked-up image sequence. 6個のLEDマーカの点滅パターンを示す図である。It is a figure which shows the blink pattern of six LED markers. 2台のカメラの位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of two cameras. 図9に示す2台のカメラの相対位置及び相対姿勢の推定結果を示す図である。It is a figure which shows the estimation result of the relative position of two cameras shown in FIG. 9, and a relative attitude | position.

符号の説明Explanation of symbols

11 点灯制御装置
21〜2m LEDマーカ
31〜3n カメラ
41〜4n 候補点抽出部
51〜5n マーカ追跡部
61 情報検出部
71 カメラ位置姿勢推定部
81 画像合成部
DESCRIPTION OF SYMBOLS 11 Lighting control apparatus 21-2m LED marker 31-3n Camera 41-4n Candidate point extraction part 51-5n Marker tracking part 61 Information detection part 71 Camera position and orientation estimation part 81 Image composition part

Claims (6)

時刻情報及び識別情報を送信する光学マーカシステムであって、
予め定められた位置に取り付けられ、発光状態を変化させることにより自身に対して一意的に割り付けられた識別情報と撮影時刻を特定するための時刻情報とを送信する複数の発光手段と、
前記発光手段の発光点を含む画像を撮影する複数の撮影手段と、
前記撮影手段により撮影された画像から前記発光手段の発光状態を検出して時刻情報と前記発光手段の識別情報及び画像上の位置を検出する検出手段とを備えることを特徴とする光学マーカシステム。
An optical marker system that transmits time information and identification information,
A plurality of light emitting means attached to a predetermined position and transmitting identification information uniquely assigned to itself by changing a light emission state and time information for specifying a photographing time;
A plurality of photographing means for photographing an image including a light emitting point of the light emitting means;
An optical marker system comprising: time information, identification information of the light emitting means, and detection position for detecting a position on the image by detecting a light emission state of the light emitting means from an image photographed by the photographing means.
前記検出手段により検出された前記発光手段の識別情報、時刻情報及び位置を基に前記撮影手段の位置及び姿勢を推定する推定手段をさらに備えることを特徴とする光学マーカシステム。   An optical marker system, further comprising: an estimation unit that estimates the position and orientation of the photographing unit based on the identification information, time information, and position of the light emitting unit detected by the detection unit. 前記複数の発光手段は、同一時刻を特定するための時刻情報を送信し、
前記検出手段は、前記複数の発光手段の発光状態が時間軸上で同一時刻を表すパターンとなる区間において時刻情報を抽出することを特徴とする請求項1又は2記載の光学マーカシステム。
The plurality of light emitting means transmit time information for specifying the same time,
3. The optical marker system according to claim 1, wherein the detection unit extracts time information in a section in which light emission states of the plurality of light emission units are patterns representing the same time on a time axis.
前記複数の発光手段は、同一時刻を特定するための時刻情報を送信し、
前記検出手段は、前記撮影手段により撮影された画像から予め定められたパターンに適合する光点を前記発光手段の光点の候補点として追跡しながら、発光状態が時間軸上で同一時刻を表すパターンとなる候補点を前記発光手段の光点として検出し、検出した光点の識別情報と時刻情報とを抽出することを特徴とする請求項1又は2記載の光学マーカシステム。
The plurality of light emitting means transmit time information for specifying the same time,
The detection means traces a light spot that matches a predetermined pattern from an image photographed by the photographing means as a light spot candidate point of the light emission means, and the light emission state represents the same time on the time axis. The optical marker system according to claim 1 or 2, wherein a candidate point to be a pattern is detected as a light spot of the light emitting means, and identification information and time information of the detected light spot are extracted.
前記複数の発光手段は、点灯確率が所定範囲内に入るように識別情報と時刻情報とを送信し、
前記検出手段は、前記撮影手段により撮影された画像から予め定められたパターンに適合する光点を前記発光手段の光点の候補点として追跡しながら、点灯確率が所定範囲内に入る候補点を前記発光手段の光点として検出し、検出した光点の識別情報と時刻情報とを抽出することを特徴とする請求項1〜4のいずれかに記載の光学マーカシステム。
The plurality of light emitting means transmit identification information and time information so that a lighting probability falls within a predetermined range,
The detection means tracks candidate points whose lighting probability falls within a predetermined range while tracking light spots that match a predetermined pattern from the image photographed by the photographing means as light spot candidate points of the light emitting means. 5. The optical marker system according to claim 1, wherein the optical marker system is detected as a light spot of the light emitting means, and identification information and time information of the detected light spot are extracted.
前記複数の発光手段は、赤外光を点灯又は消灯することにより識別情報と時刻情報とを送信し、
前記複数の撮影手段は、赤外光及び可視光を用いて画像を撮影することを特徴とする請求項1〜5のいずれかに記載の光学マーカシステム。
The plurality of light emitting means transmit identification information and time information by turning on or off infrared light,
The optical marker system according to claim 1, wherein the plurality of imaging units capture an image using infrared light and visible light.
JP2004208369A 2004-07-15 2004-07-15 Optical marker system Expired - Fee Related JP4418935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004208369A JP4418935B2 (en) 2004-07-15 2004-07-15 Optical marker system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004208369A JP4418935B2 (en) 2004-07-15 2004-07-15 Optical marker system

Publications (2)

Publication Number Publication Date
JP2006033329A true JP2006033329A (en) 2006-02-02
JP4418935B2 JP4418935B2 (en) 2010-02-24

Family

ID=35899157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004208369A Expired - Fee Related JP4418935B2 (en) 2004-07-15 2004-07-15 Optical marker system

Country Status (1)

Country Link
JP (1) JP4418935B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240295A (en) * 2006-03-08 2007-09-20 Advanced Telecommunication Research Institute International System, method, and program for estimating position
WO2008108087A1 (en) * 2007-03-06 2008-09-12 Panasonic Corporation Camera coupling relation information generating device
JP2008276299A (en) * 2007-04-25 2008-11-13 Nippon Hoso Kyokai <Nhk> Image composing apparatus, and image composing program
US20090153650A1 (en) * 2007-06-18 2009-06-18 Fujifilm Corporation Camera position recognition system
KR100936275B1 (en) * 2007-08-24 2010-01-13 한국과학기술원 Apparatus and Method for Location Detection by using Synchronously Distinguishable Markers
JP2012124574A (en) * 2010-12-06 2012-06-28 Toshiba Corp Network camera system and image information time synchronization method used for this
JP2013038489A (en) * 2011-08-04 2013-02-21 Hitachi-Ge Nuclear Energy Ltd Information transmission system, mobile body position detection device, transmission device and receiving device
JP2013153394A (en) * 2012-01-26 2013-08-08 Keio Gijuku Conversion method of transmission line code for digital communication, and code generation method for the conversion method
KR101397214B1 (en) * 2007-06-05 2014-05-20 삼성전자주식회사 System and method for generating virtual object using augmented reality
WO2014199564A1 (en) * 2013-06-11 2014-12-18 Sony Corporation Information processing device, imaging device, information processing method, and program
WO2015193049A1 (en) 2014-06-17 2015-12-23 Swiss Timing Ltd Automated camera-based time measurement system and method
JP5928969B1 (en) * 2015-07-22 2016-06-01 ビーコア株式会社 Image processing system, light emitting device, image processing method, and light emitting method
JP2017028673A (en) * 2015-11-19 2017-02-02 ビーコア株式会社 Image processing system, light-emitting device, image processing device, image processing method, light-emitting method and program
CN108469591A (en) * 2018-03-22 2018-08-31 上海康斐信息技术有限公司 A kind of detection method and system of RGB LED displays
WO2018211711A1 (en) * 2017-05-19 2018-11-22 特定非営利活動法人ニューロクリアティブ研究会 Behavior analysis device, behavior analysis program, behavior analysis system, marker control device, and marker control program
EP3650996A4 (en) * 2017-07-04 2020-05-13 Virtualware 2007, S.A. Positioning system
CN112822411A (en) * 2019-11-18 2021-05-18 富士施乐株式会社 Information processing apparatus, system and method thereof, lighting apparatus, and recording medium
EP3890302A1 (en) * 2018-11-30 2021-10-06 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, device for position/attitude acquisition, and device information acquisition method
JP7377721B2 (en) 2020-01-07 2023-11-10 日本放送協会 Marker detection device and its program, and marker light emitting device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
JP2003254716A (en) * 2002-03-04 2003-09-10 Sony Corp Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
JP2004054886A (en) * 2002-05-28 2004-02-19 Advanced Telecommunication Research Institute International Database creating device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
JP2003254716A (en) * 2002-03-04 2003-09-10 Sony Corp Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
JP2004054886A (en) * 2002-05-28 2004-02-19 Advanced Telecommunication Research Institute International Database creating device

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240295A (en) * 2006-03-08 2007-09-20 Advanced Telecommunication Research Institute International System, method, and program for estimating position
US8284255B2 (en) 2007-03-06 2012-10-09 Panasonic Corporation Inter-camera ink relation information generating apparatus
WO2008108087A1 (en) * 2007-03-06 2008-09-12 Panasonic Corporation Camera coupling relation information generating device
JP2008276299A (en) * 2007-04-25 2008-11-13 Nippon Hoso Kyokai <Nhk> Image composing apparatus, and image composing program
KR101397214B1 (en) * 2007-06-05 2014-05-20 삼성전자주식회사 System and method for generating virtual object using augmented reality
US20090153650A1 (en) * 2007-06-18 2009-06-18 Fujifilm Corporation Camera position recognition system
KR100936275B1 (en) * 2007-08-24 2010-01-13 한국과학기술원 Apparatus and Method for Location Detection by using Synchronously Distinguishable Markers
JP2012124574A (en) * 2010-12-06 2012-06-28 Toshiba Corp Network camera system and image information time synchronization method used for this
JP2013038489A (en) * 2011-08-04 2013-02-21 Hitachi-Ge Nuclear Energy Ltd Information transmission system, mobile body position detection device, transmission device and receiving device
JP2013153394A (en) * 2012-01-26 2013-08-08 Keio Gijuku Conversion method of transmission line code for digital communication, and code generation method for the conversion method
US10375305B2 (en) 2013-06-11 2019-08-06 Sony Corporation Information processing device, imaging device, information processing method, and program
WO2014199564A1 (en) * 2013-06-11 2014-12-18 Sony Corporation Information processing device, imaging device, information processing method, and program
WO2015193049A1 (en) 2014-06-17 2015-12-23 Swiss Timing Ltd Automated camera-based time measurement system and method
JP5928969B1 (en) * 2015-07-22 2016-06-01 ビーコア株式会社 Image processing system, light emitting device, image processing method, and light emitting method
WO2017013811A1 (en) * 2015-07-22 2017-01-26 ビーコア株式会社 Image processing system, light emitting device, image processing device, image processing method, light emitting method, and program
JP2017028673A (en) * 2015-11-19 2017-02-02 ビーコア株式会社 Image processing system, light-emitting device, image processing device, image processing method, light-emitting method and program
WO2018211711A1 (en) * 2017-05-19 2018-11-22 特定非営利活動法人ニューロクリアティブ研究会 Behavior analysis device, behavior analysis program, behavior analysis system, marker control device, and marker control program
EP3650996A4 (en) * 2017-07-04 2020-05-13 Virtualware 2007, S.A. Positioning system
US11169596B2 (en) 2017-07-04 2021-11-09 Javier Ibañez Cruz Positioning system
CN108469591A (en) * 2018-03-22 2018-08-31 上海康斐信息技术有限公司 A kind of detection method and system of RGB LED displays
EP3890302A1 (en) * 2018-11-30 2021-10-06 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, device for position/attitude acquisition, and device information acquisition method
EP3890302A4 (en) * 2018-11-30 2022-08-31 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, device for position/attitude acquisition, and device information acquisition method
US11831993B2 (en) 2018-11-30 2023-11-28 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, device for position and posture acquisition, and device information acquisition method
CN112822411A (en) * 2019-11-18 2021-05-18 富士施乐株式会社 Information processing apparatus, system and method thereof, lighting apparatus, and recording medium
JP7377721B2 (en) 2020-01-07 2023-11-10 日本放送協会 Marker detection device and its program, and marker light emitting device

Also Published As

Publication number Publication date
JP4418935B2 (en) 2010-02-24

Similar Documents

Publication Publication Date Title
JP4418935B2 (en) Optical marker system
US10628648B2 (en) Systems and methods for tracking optical codes
JP3779308B2 (en) Camera calibration system and three-dimensional measurement system
JP2009033366A (en) Optical marker system
Khan et al. Consistent labeling of tracked objects in multiple cameras with overlapping fields of view
Jiang et al. A robust hybrid tracking system for outdoor augmented reality
CN101542538B (en) Method and system for modeling light
Clipp et al. Parallel, real-time visual SLAM
JP2019513274A (en) System and method for installation, identification and counting of goods
Calderara et al. Bayesian-competitive consistent labeling for people surveillance
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
CN111046725B (en) Spatial positioning method based on face recognition and point cloud fusion of surveillance video
JP2019194616A (en) Position detection method, device and equipment based upon image, and storage medium
JP5554726B2 (en) Method and apparatus for data association
JP2004515832A (en) Apparatus and method for spatio-temporal normalization matching of image sequence
US20070152157A1 (en) Simulation arena entity tracking system
US11003963B2 (en) Method and system for identifying targets in scenes shot by a camera
US20020006282A1 (en) Image pickup apparatus and method, and recording medium
CN110706258A (en) Object tracking method and device
CN110910460A (en) Method and device for acquiring position information and calibration equipment
US20200364900A1 (en) Point marking using virtual fiducial elements
CN103955494A (en) Searching method and device of target object and terminal
JP2001091232A (en) Three-dimensional shape measuring device and method, and recording medium
JP5356036B2 (en) Group tracking in motion capture
JP2001159506A (en) Three-dimensional shape measuring device and method and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees