KR20210023431A - Position tracking system using a plurality of cameras and method for position tracking using the same - Google Patents

Position tracking system using a plurality of cameras and method for position tracking using the same Download PDF

Info

Publication number
KR20210023431A
KR20210023431A KR1020190103606A KR20190103606A KR20210023431A KR 20210023431 A KR20210023431 A KR 20210023431A KR 1020190103606 A KR1020190103606 A KR 1020190103606A KR 20190103606 A KR20190103606 A KR 20190103606A KR 20210023431 A KR20210023431 A KR 20210023431A
Authority
KR
South Korea
Prior art keywords
cameras
marker
camera
reference camera
pattern
Prior art date
Application number
KR1020190103606A
Other languages
Korean (ko)
Other versions
KR102290218B1 (en
Inventor
서준호
권오원
이동규
박해준
Original Assignee
한국기계연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기계연구원 filed Critical 한국기계연구원
Priority to KR1020190103606A priority Critical patent/KR102290218B1/en
Publication of KR20210023431A publication Critical patent/KR20210023431A/en
Application granted granted Critical
Publication of KR102290218B1 publication Critical patent/KR102290218B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

In a position tracking system using multiple cameras and a position tracking method using the same, the position tracking system capable of improving the convenience of position tracking includes a marker, multiple cameras, and a reference camera. The marker is a target for tracking, and a predetermined marker pattern is formed. The cameras are located at different positions, and each of the cameras includes a front unit facing the marker and a photographing unit fixed to the front unit to photograph the marker. The reference camera includes one pair of first and second reference cameras fixed in position and disposed so as to face the front units of the cameras, and a connection unit connecting the first and second reference cameras.

Description

복수의 카메라를 이용한 위치추적 시스템 및 이를 이용한 위치추적 방법{POSITION TRACKING SYSTEM USING A PLURALITY OF CAMERAS AND METHOD FOR POSITION TRACKING USING THE SAME}Location tracking system using multiple cameras and location tracking method using the same {POSITION TRACKING SYSTEM USING A PLURALITY OF CAMERAS AND METHOD FOR POSITION TRACKING USING THE SAME}

본 발명은 위치추적 시스템 및 이를 이용한 위치추적 방법에 관한 것으로, 더욱 상세하게는 복수의 카메라를 이용하여 마커의 위치를 추적함에 있어, 카메라들 중 일부의 카메라의 위치가 변경되더라도 자동으로 초기 위치를 산출할 수 있어, 별도의 캘리브레이션(calibration) 도구의 사용을 생략할 수 있는 복수의 카메라를 이용한 위치추적 시스템 및 이를 이용한 위치추적 방법에 관한 것이다.The present invention relates to a location tracking system and a location tracking method using the same, and more particularly, in tracking the location of a marker using a plurality of cameras, even if the location of some of the cameras is changed, the initial location is automatically determined. The present invention relates to a location tracking system using a plurality of cameras, which can be calculated and eliminates the use of a separate calibration tool, and a location tracking method using the same.

정지하거나 움직이는 다양한 종류의 대상체에 대한 위치를 추적하는 기술은, 특히 최근 의료 현장에서의 수술 도구의 움직임에 대한 모니터링 관련 수요의 증가와 함께, 다양하게 개발되고 있다. Techniques for tracking positions of various kinds of objects that are stationary or moving have been developed in various ways, especially with an increase in demand related to monitoring the movement of surgical instruments in a medical field in recent years.

일반적으로, 움직이는 물체의 위치를 추적하기 위해서는 해당 물체에 추적이 가능한 마커를 부착하고 카메라를 이용하여 실시간으로 추적하는 기술이 적용된다. In general, in order to track the location of a moving object, a technique of attaching a traceable marker to the object and tracking it in real time using a camera is applied.

다만, 수술 현장 등의 경우, 다양한 수술 도구나 수술 장비 등이 배치된 상황에서 하나의 카메라를 이용한 추적이 어려운 한계가 있어, 복수의 카메라들을 이용하여 마커가 부착된 물체를 추적하는 것이 일반적이며, 이에 따라 마커의 정확한 위치 추적을 위해서는 복수의 카메라들 각각의 초기 위치에 대한 정보를 획득하는 것이 필요하다. However, in the case of an operation site, there is a limitation in that it is difficult to track using a single camera in a situation where various surgical tools or surgical equipment are arranged, so it is common to use a plurality of cameras to track an object to which a marker is attached. Accordingly, in order to accurately track the location of the marker, it is necessary to acquire information on the initial location of each of the plurality of cameras.

이 경우, 복수의 카메라들의 위치가 항상 고정된다면, 복수의 카메라들 각각의 초기 설정 위치에 대한 정보를 이용하는 것으로 충분하지만, 실제 마커가 이동되거나 마커가 변화함에 따라, 상기 카메라들 각각의 위치가 변화할 수 있다. In this case, if the positions of the plurality of cameras are always fixed, it is sufficient to use information on the initial setting positions of each of the plurality of cameras, but the position of each of the cameras changes as the actual marker is moved or the marker changes. can do.

이와 같이 상기 카메라들 각각의 위치가 변화하게 되면, 각각의 카메라들에 대한 위치를 재설정하여야 하는데, 종래의 경우, 이러한 위치 재설정을 위한 별도의 전용 캘리브레이션 도구를 사용하여 왔다. 그러나, 이러한 별도의 전용 캘리브레이션 도구를 사용하는 경우, 시간과 비용이 증가하는 것은 물론, 위치 재설정을 위해 수술 등의 작업을 중단하여야 하는 등의 다양한 문제가 있었다. When the positions of each of the cameras are changed as described above, the positions of each of the cameras must be reset. In the conventional case, a separate dedicated calibration tool has been used for such position reset. However, in the case of using such a separate dedicated calibration tool, there are various problems such as an increase in time and cost, as well as a need to stop operations such as surgery for repositioning.

대한민국 등록특허 제10-0757261호Korean Patent Registration No. 10-0757261

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 복수의 카메라를 이용하여 마커의 위치를 추적함에 있어, 카메라들 중 일부의 카메라의 위치가 변경되더라도 자동으로 변경된 초기 위치를 산출할 수 있어, 보다 효율적인 초기 위치 산출이 가능하여 마커의 위치 추적의 편의성을 향상시킬 수 있는 복수의 카메라를 이용한 위치추적 시스템을 제공하는 것이다. Accordingly, the technical problem of the present invention is conceived in this respect, and an object of the present invention is to track the position of a marker using a plurality of cameras, even if the position of some of the cameras is changed, the initial position automatically changed. To provide a location tracking system using a plurality of cameras that can be calculated, thereby enabling more efficient initial location calculation and improving the convenience of tracking the location of a marker.

또한, 본 발명의 다른 목적은 상기 위치추적 시스템을 이용한 위치추적 방법을 제공하는 것이다. In addition, another object of the present invention is to provide a location tracking method using the location tracking system.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 의한 위치추적 시스템은 마커, 복수의 카메라들 및 기준 카메라를 포함한다. 상기 마커는 추적의 대상이 되며, 소정의 마커 패턴이 형성된다. 상기 카메라들은 서로 다른 위치에 위치하며, 각각은 상기 마커를 향하는 전면부 및 상기 전면부에 고정되어 상기 마커를 촬영하는 촬영부를 포함한다. 상기 기준 카메라는 위치가 고정되며, 상기 카메라들의 전면부와 마주하도록 배치되는 한 쌍의 제1 및 제2 기준 카메라들 및 상기 제1 및 제2 기준 카메라들을 연결하는 연결부를 포함한다. A location tracking system according to an embodiment for realizing the object of the present invention described above includes a marker, a plurality of cameras, and a reference camera. The marker becomes an object of tracking, and a predetermined marker pattern is formed. The cameras are positioned at different positions, and each includes a front portion facing the marker and a photographing portion fixed to the front portion to photograph the marker. The reference camera has a fixed position and includes a pair of first and second reference cameras arranged to face front portions of the cameras, and a connection part connecting the first and second reference cameras.

일 실시예에서, 상기 카메라들 각각은, 상기 전면부에 복수개가 배열되는 발광부들을 더 포함할 수 있다. In one embodiment, each of the cameras may further include a plurality of light emitting units arranged on the front surface.

일 실시예에서, 상기 발광부들은, 상기 카메라들 각각의 초기 위치 산출시에는, 기 설정된 발광부들만 발광하여 고유의 패턴을 형성할 수 있다. In an embodiment, when calculating the initial position of each of the cameras, the light-emitting units may emit light only to preset light-emitting units to form a unique pattern.

일 실시예에서, 상기 발광부들에 의해 형성되는 고유의 패턴은, 각각의 카메라들 별로 서로 다를 수 있다. In one embodiment, a unique pattern formed by the light emitting units may be different for each camera.

일 실시예에서, 상기 발광부들 중, 각각의 이격 거리가 서로 다른 적어도 3개의 발광부들이 발광하여 상기 고유의 패턴을 형성할 수 있다. In an exemplary embodiment, at least three light-emitting units having different spacing distances among the light-emitting units may emit light to form the unique pattern.

일 실시예에서, 상기 발광부들은, 상기 마커의 위치를 추적하는 경우에는, 모두 발광할 수 있다. In one embodiment, all of the light emitting units may emit light when tracking the position of the marker.

일 실시예에서, 상기 카메라들 각각은, 상기 전면부에 복수개가 기 설정된 고유의 패턴으로 배치되는 식별 패턴을 더 포함할 수 있다. In one embodiment, each of the cameras may further include an identification pattern arranged in a plurality of preset unique patterns on the front surface.

일 실시예에서, 상기 식별 패턴은 적외선 반사 패턴이며, 상기 기준 카메라는 상기 적외선 반사 패턴을 식별할 수 있다. In an embodiment, the identification pattern is an infrared reflection pattern, and the reference camera may identify the infrared reflection pattern.

일 실시예에서, 상기 기준 카메라는, 상기 카메라들의 전면부를 촬영하여 상기 카메라들 각각의 상대 위치를 산출하고, 상기 기준 카메라의 위치와 상기 산출된 상대 위치를 바탕으로 상기 카메라들 각각의 초기 위치를 산출할 수 있다. In an embodiment, the reference camera calculates a relative position of each of the cameras by photographing the front portions of the cameras, and determines an initial position of each of the cameras based on the position of the reference camera and the calculated relative position. Can be calculated.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 의한 위치추적 방법에서는, 상기 위치추적 시스템을 이용하여 상기 복수의 카메라들의 초기 위치를 산출하는 단계, 및 상기 카메라들의 초기 위치를 바탕으로 상기 마커의 위치를 추적하는 단계를 포함한다. In a location tracking method according to an embodiment for realizing the object of the present invention, calculating initial positions of the plurality of cameras using the location tracking system, and the marker based on the initial positions of the cameras. And tracking the location of.

일 실시예에서, 상기 초기 위치를 산출하는 단계는, 상기 카메라들 중 적어도 하나의 카메라의 위치가 변경되는 경우마다 수행될 수 있다. In an embodiment, the calculating of the initial position may be performed whenever the position of at least one of the cameras is changed.

일 실시예에서, 상기 초기 위치를 산출하는 단계는, 상기 카메라들 각각이 기 설정된 고유의 패턴을 생성하는 단계, 상기 기준 카메라가, 상기 카메라들 각각을 식별하고, 상기 기준 카메라의 위치에 대한 상기 카메라들 각각의 상대 위치를 산출하는 단계, 및 상기 기준 카메라의 위치를 바탕으로 상기 카메라들 각각의 초기 위치를 산출하는 단계를 포함할 수 있다. In one embodiment, the calculating of the initial position comprises the steps of generating a preset unique pattern for each of the cameras, the reference camera, identifying each of the cameras, and determining the position of the reference camera. It may include calculating a relative position of each of the cameras, and calculating an initial position of each of the cameras based on the position of the reference camera.

일 실시예에서, 상기 기 설정된 고유의 패턴을 생성하는 단계에서, 상기 카메라들 각각은, 상기 전면부에 배열되는 복수의 발광부들 중 기 설정된 발광부들만 발광하여 고유의 패턴을 형성할 수 있다. In one embodiment, in the step of generating the preset unique pattern, each of the cameras may form a unique pattern by emitting only preset light emitting units among a plurality of light emitting units arranged on the front surface.

일 실시예에서, 상기 마커의 위치를 추적하는 단계는, 상기 기준카메라에 배열되는 복수의 발광부들, 및 상기 카메라들 각각에 배열되는 복수의 발광부들을 모두 발광하여 상기 마커에 광을 제공하는 단계, 및 상기 기준카메라 및 상기 카메라들 각각이, 상기 마커의 위치를 산출하는 단계를 포함할 수 있다. In one embodiment, the tracking of the position of the marker comprises: providing light to the marker by emitting light from all of the plurality of light emitting units arranged in the reference camera and the plurality of light emitting units arranged in each of the cameras. , And calculating the position of the marker by each of the reference camera and the cameras.

일 실시예에서, 상기 마커의 위치를 산출하는 단계에서, 상기 기준카메라는, 상기 마커의 마커 패턴에 대한 정보를 바탕으로, 상기 마커와 상기 카메라들을 식별하며 상기 마커의 위치를 산출할 수 있다. In an embodiment, in the step of calculating the position of the marker, the reference camera may identify the marker and the cameras based on information on the marker pattern of the marker and calculate the position of the marker.

본 발명의 실시예들에 의하면, 복수의 카메라들을 이용하여 마커를 추적함에 있어, 위치가 고정되며 카메라들과 마주하도록 배치되는 기준 카메라를 이용하여, 각 카메라들을 식별하고, 각 카메라들 사이의 상대 위치를 산출함으로써, 기준 카메라의 초기 기준 위치를 바탕으로 각 카메라들의 위치를 도출할 수 있어, 별도의 초기 위치 산출을 위한 캘리브레이션 도구를 이용하지 않으면서도, 복수의 카메라들 각각의 위치를 용이하게 도출할 수 있다. According to embodiments of the present invention, in tracking a marker using a plurality of cameras, each camera is identified by using a reference camera that is fixed in position and arranged to face the cameras, and By calculating the position, it is possible to derive the position of each camera based on the initial reference position of the reference camera, so that the position of each of the plurality of cameras can be easily derived without using a separate calibration tool for calculating the initial position. can do.

즉, 상기 카메라들 중 적어도 하나가 위치가 변화하는 경우, 변화된 카메라들의 초기 위치의 산출을 위해, 상기 캘리브레이션 도구를 사용하지 않으면서, 기준 카메라를 통한 카메라들의 촬영만으로, 카메라들의 변화된 위치를 갱신하여 도출할 수 있으므로, 마커의 크기나 장애물 때문에 카메라들의 위치를 자주 변경해야 하는 위치 추적의 상황에서, 위치 추적을 위한 준비 시간을 감소시키며 사용자의 편의성을 향상시킬 수 있다. That is, when at least one of the cameras changes position, to calculate the initial position of the changed cameras, the changed position of the cameras is updated only by photographing the cameras through the reference camera without using the calibration tool. Since it can be derived, it is possible to reduce the preparation time for location tracking and improve the user's convenience in the situation of location tracking in which the location of the cameras is frequently changed due to the size of a marker or an obstacle.

특히, 일반적으로 위치추적 시스템에 사용되는 카메라들의 전면부에 복수의 발광부들이 배열된 구조를 활용하여, 상기 배열된 발광부들에서 일부만을 선택적으로 발광하여 고유의 패턴을 형성하고, 이러한 고유의 패턴을 각 카메라들마다 서로 다르게 설정함으로써, 상기 기준 카메라가 각각의 카메라를 손쉽게 식별하면서, 고유의 패턴에 대한 촬영 정보를 바탕으로, 각 카메라들 사이의 상대 위치를 용이하게 도출할 수 있게 된다. In particular, by utilizing a structure in which a plurality of light-emitting parts are arranged on the front part of cameras generally used in a location tracking system, only a part of the light-emitting parts are selectively emit light to form a unique pattern, and such a unique pattern By setting differently for each camera, the reference camera can easily identify each camera and easily derive a relative position between the cameras based on photographing information for a unique pattern.

이와 달리, 상기 카메라들의 전면부에 별도의 고유의 패턴을 형성하는 식별 패턴을 더 형성함으로써, 마찬가지로 상기 기준 카메라가 각각의 카메라를 손쉽게 식별하면서, 고유의 패턴에 대한 촬영 정보를 바탕으로, 각 카메라들 사이의 상대 위치를 용이하게 도출할 수 있게 된다. In contrast, by further forming an identification pattern that forms a separate pattern on the front side of the cameras, the reference camera can easily identify each camera and, based on the shooting information for the unique pattern, each camera It becomes possible to easily derive the relative position between them.

한편, 상기 마커에 대한 위치 추적에 있어, 각각의 카메라들과, 기준 카메라의 위치 정보가 도출된 상태이므로, 상기 마커와 이를 촬영하는 카메라 사이의 상대 위치 정보만 도출하면, 상기 마커의 위치 정보를 바로 도출할 수 있으므로, 마커에 대한 위치 추적이 매우 용이하다. On the other hand, in the location tracking of the marker, since the location information of each camera and the reference camera is derived, if only the relative location information between the marker and the camera that photographs it is derived, the location information of the marker is Since it can be directly derived, it is very easy to track the location of the marker.

특히, 수술실과 같은 환경에서 마커에 대한 추적을 수행하는 경우, 수술 도구나 장비 또는 수술 인력 등의 장애물에 의해 마커에 대한 정확한 촬영이 어려울 수 있으나, 상기 카메라들은 물론, 상기 카메라들과 마주하도록 배치된 상기 기준 카메라에서도 상기 마커에 대한 촬영을 수행하여, 상기 마커의 위치 정보를 도출할 수 있는 바, 보다 다양한 각도에서 상기 마커에 대한 촬영이 가능하여, 장애물에 대한 간섭의 영향을 최소화할 수 있다. In particular, when tracking a marker in an environment such as an operating room, it may be difficult to accurately photograph the marker due to obstacles such as surgical tools, equipment, or surgical personnel, but the cameras are arranged to face the cameras as well as the cameras. Since the reference camera is also capable of photographing the marker to derive the location information of the marker, it is possible to photograph the marker from more various angles, thereby minimizing the influence of interference on the obstacle. .

도 1은 본 발명의 일 실시예에 의한 복수의 카메라를 이용한 위치추적 시스템을 도시한 모식도이다.
도 2는 도 1의 카메라를 도시한 정면도이다.
도 3a 및 도 3b는 도 2의 카메라에서, 초기 위치 산출을 위한 발광 패턴의 예들을 도시한 정면도들이다.
도 4는 도 1의 카메라들을 이용한 마커의 위치추적 상태를 도시한 모식도이다.
도 5는 도 4의 마커의 위치추적에서, 기준카메라에서 마커와 반대측에 위치한 카메라들을 식별하는 상태를 도시한 모식도이다.
도 6은 본 발명의 다른 실시예에 의한 복수의 카메라를 이용한 위치추적 시스템을 도시한 모식도이다.
도 7은 도 1의 위치추적 시스템을 이용한 위치추적 방법을 도시한 흐름도이다.
도 8은 도 7에서 카메라의 초기 위치를 산출하는 단계를 도시한 흐름도이고, 도 9는 도 7에서 마커의 위치를 추적하는 단계를 도시한 흐름도이다.
1 is a schematic diagram showing a location tracking system using a plurality of cameras according to an embodiment of the present invention.
2 is a front view illustrating the camera of FIG. 1.
3A and 3B are front views illustrating examples of light emission patterns for calculating an initial position in the camera of FIG. 2.
4 is a schematic diagram showing a position tracking state of a marker using the cameras of FIG. 1.
5 is a schematic diagram showing a state in which cameras located opposite to the marker in the reference camera are identified in the position tracking of the marker of FIG. 4.
6 is a schematic diagram showing a location tracking system using a plurality of cameras according to another embodiment of the present invention.
7 is a flowchart illustrating a location tracking method using the location tracking system of FIG. 1.
8 is a flowchart illustrating a step of calculating an initial position of a camera in FIG. 7, and FIG. 9 is a flowchart illustrating a step of tracking a position of a marker in FIG. 7.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. The present invention will be described in detail in the text, since various modifications can be made and various forms can be obtained. However, this is not intended to limit the present invention to a specific form disclosed, it should be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements. Terms such as first and second may be used to describe various elements, but the elements should not be limited by the terms.

본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as "comprise" or "consist of" are intended to designate the presence of features, numbers, steps, actions, elements, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance the possibility of the presence or addition.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 의한 복수의 카메라를 이용한 위치추적 시스템을 도시한 모식도이다. 1 is a schematic diagram showing a location tracking system using a plurality of cameras according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에 의한 위치추적 시스템(10)은, 후술되는 도 5의 마커(500)의 위치를 추적하는 시스템으로서, 기준 카메라(100) 및 복수의 카메라들(200, 300, 400)을 포함한다. Referring to FIG. 1, the position tracking system 10 according to the present embodiment is a system for tracking the position of the marker 500 of FIG. 5 to be described later, and includes a reference camera 100 and a plurality of cameras 200 and 300. , 400).

상기 기준 카메라(100)는 상기 복수의 카메라들(200, 300, 400)을 모두 바라볼 수 있는, 즉, 상기 복수의 카메라들(200, 300, 400) 모두를 촬영할 수 있는 방향을 향하여 위치한다. The reference camera 100 is positioned toward a direction in which all of the plurality of cameras 200, 300, 400 can be viewed, that is, all of the plurality of cameras 200, 300, 400 can be photographed. .

이 경우, 상기 기준 카메라(100)의 위치는 고정된 상태이며, 상기 기준 카메라(100)의 자세나 방향 역시 고정된 상태이다. In this case, the position of the reference camera 100 is in a fixed state, and the posture or direction of the reference camera 100 is also in a fixed state.

즉, 상기 기준 카메라(100)의 위치가 고정된 상태이므로, 상기 기준 카메라(100)의 초기 위치에 대한 정보, 즉 상기 기준 카메라(100)의 초기 좌표 및 초기 방향에 대한 정보는 도시하지는 않았으나, 제어부 또는 데이터베이스부 등에 저장된다. That is, since the position of the reference camera 100 is fixed, information on the initial position of the reference camera 100, that is, information on the initial coordinate and initial direction of the reference camera 100 is not shown. It is stored in the control unit or the database unit.

상기 기준 카메라(100)는 한 쌍의 제1 및 제2 기준 카메라들(110, 120), 및 연결부(130)를 포함한다. The reference camera 100 includes a pair of first and second reference cameras 110 and 120 and a connection unit 130.

상기 제1 및 제2 기준 카메라들(110, 120)은 상기 연결부(130)를 통해 연결되며, 도 1에서는 상기 연결부(130)가 연결 프레임의 형상으로 도시되었으나, 상기 연결부(130)는 상기 제1 및 제2 기준 카메라들(110, 120)을 서로 연결하는 구조이면 제한되지는 않는다. The first and second reference cameras 110 and 120 are connected through the connection part 130, and in FIG. 1, the connection part 130 is shown in the shape of a connection frame, but the connection part 130 is The structure of connecting the first and second reference cameras 110 and 120 to each other is not limited.

이와 같이, 상기 제1 및 제2 기준 카메라들(110, 120)이 상기 연결부(130)를 통해 상대적으로 연결되므로, 상기 기준 카메라(100)는 전체적으로 일체로 형성되어 그 위치 및 자세가 초기 설정 위치 및 자세에서 변화하지 않는다. In this way, since the first and second reference cameras 110 and 120 are relatively connected through the connection unit 130, the reference camera 100 is integrally formed so that its position and posture are initially set positions. And does not change in posture.

즉, 상기 제1 및 제2 기준 카메라들(110, 120) 및 상기 연결부(130)는 일체로서 하나의 위치 및 하자의 자세로 고정될 수 있으며, 각각의 구성들은 다른 구성에 대하여 상대적으로 이동되지 않는다. That is, the first and second reference cameras 110 and 120 and the connection part 130 may be integrally fixed to one position and posture of defects, and each of the elements is relatively not moved with respect to the other elements. Does not.

이에 따라, 상기 기준 카메라(100)의 초기 위치가, 예를 들어, 도 1에 X-Y-Z 좌표축으로 도시된 바와 같이 상기 연결부(130)의 중앙을 기준으로 초기 위치 좌표 정보가 설정된다면, 상기 제1 및 제2 기준 카메라들(110, 120) 각각의 임의의 위치에 대한 좌표 정보 역시 설정되며, 이렇게 설정된 초기 위치 좌표 정보는 변경되지 않는다. Accordingly, if initial position coordinate information of the reference camera 100 is set based on the center of the connection unit 130 as shown, for example, as an XYZ coordinate axis in FIG. 1, the first and Coordinate information for an arbitrary position of each of the second reference cameras 110 and 120 is also set, and the initial position coordinate information set in this way is not changed.

한편, 상기 제1 기준 카메라(110)는 촬영부(111)를 포함하며, 상기 제2 기준 카메라(120)도 촬영부(121)를 포함하며, 이에 따라 상기 제1 및 제2 기준 카메라들(110, 120)의 촬영부들(111, 121)의 위치 및 향하는 방향에 대한 정보는 상기 제어부 또는 데이터베이스부 등에 저장되며, 초기 설정된 상태에서 변경되지 않는다. Meanwhile, the first reference camera 110 includes a photographing unit 111, and the second reference camera 120 also includes a photographing unit 121, and accordingly, the first and second reference cameras ( Information on the location and direction of the photographing units 111 and 121 of 110 and 120 is stored in the control unit or the database unit, and is not changed in an initial setting state.

또한, 상기 제1 및 제2 기준 카메라들(110, 120) 각각은, 상기 연결부(130)를 통해 연결되는 것을 제외하고는, 후술되는 상기 복수의 카메라들(200, 300, 400) 각각과 동일한 구조 및 형상을 가지는 카메라일 수 있다. In addition, each of the first and second reference cameras (110, 120) is the same as each of the plurality of cameras (200, 300, 400) to be described later, except that they are connected through the connection unit 130. It may be a camera having a structure and shape.

이에, 도 1에는 도시하지는 않았으나, 상기 제1 및 제2 기준 카메라들(110, 120) 각각은, 후술되는 상기 복수의 카메라들 각각의 전면부에 배열되는 복수의 발광부들이 상기 촬영부(111, 121)에 인접하여 배열될 수 있다. Thus, although not shown in FIG. 1, each of the first and second reference cameras 110 and 120 includes a plurality of light emitting units arranged on the front side of each of the plurality of cameras to be described later. , 121) may be arranged adjacent to each other.

나아가, 상기 제1 및 제2 기준 카메라들(110, 120)은 한 쌍이 동일한 방향을 향하도록 배치되는 것으로, 소위, 스테레오(stereo) 카메라일 수 있어, 상기 복수의 카메라들(200, 300, 400) 각각에 대한 입체 영상의 획득이 가능하다. Further, the first and second reference cameras 110 and 120 are arranged so that a pair of them face the same direction, and may be so-called stereo cameras, so that the plurality of cameras 200, 300, 400 ) It is possible to obtain a stereoscopic image for each.

상기 복수의 카메라들(200, 300, 400)은, 상기 마커(500)를 촬영하기 위해 특정 공간, 예를 들어 수술 공간 등에 배치되는 것으로, 도 1에서는 3개의 카메라들이 배치되는 것을 예시하였으나, 상기 카메라들의 개수는 제한되지는 않는다. The plurality of cameras 200, 300, 400 are disposed in a specific space, for example, an operation space, etc. to photograph the marker 500, and in FIG. 1, it is illustrated that three cameras are disposed. The number of cameras is not limited.

특히, 수술 공간 등과 같은 특정 공간의 경우, 상기 마커(500)가 이동하게 되면, 상기 특정 공간의 특정 구조물, 예를 들어 수술 도구나 수술 장치 또는 수술자 등에 의해 상기 마커(500)가 가려질 수 있으므로, 상기와 같이 복수의 카메라들(200, 300, 400)을 상기 특정 공간상에 서로 다른 위치에 배치함으로써, 어느 하나의 카메라에 의해 상기 마커(500)의 추적이 어려운 경우라도, 다른 카메라를 통해 상기 마커(500)에 대한 추적이 가능하여, 상기 마커(500)의 이동시 연속적인 마커의 추적이 가능하게 된다. In particular, in the case of a specific space such as an operation space, when the marker 500 moves, the marker 500 may be covered by a specific structure of the specific space, for example, a surgical tool, a surgical device, or an operator. , By arranging a plurality of cameras 200, 300, 400 at different locations on the specific space as described above, even if it is difficult to track the marker 500 by any one camera, through another camera Since the marker 500 can be tracked, it is possible to continuously track the marker when the marker 500 is moved.

한편, 앞서 설명한 바와 같이, 상기 복수의 카메라들(200, 300, 400)이 상기 특정 공간에 임의의 위치에 배열되는 경우, 상기 기준 카메라(100)는 상기 복수의 카메라들의 전면부와 마주하도록 배치되며, 이를 통해 상기 기준 카메라(100)는 상기 복수의 카메라들 각각의 위치 정보를 획득할 수 있다. Meanwhile, as described above, when the plurality of cameras 200, 300, and 400 are arranged at arbitrary positions in the specific space, the reference camera 100 is arranged to face the front portions of the plurality of cameras. Through this, the reference camera 100 may acquire location information of each of the plurality of cameras.

상기 복수의 카메라들(200, 300, 400) 각각은 모두 동일한 구조 및 형상을 가지므로, 도 2를 참조하여 상기 카메라(200, 또는 제1 카메라)를, 대표로 그 구조 및 형상에 대하여 보다 구체적으로 상술한다. Since each of the plurality of cameras 200, 300, and 400 has the same structure and shape, referring to FIG. 2, the camera 200, or the first camera, as a representative, is more specific with respect to the structure and shape. It will be described in detail.

도 2는 도 1의 카메라를 도시한 정면도이다. 2 is a front view illustrating the camera of FIG. 1.

즉, 도 1 및 도 2를 참조하면, 상기 카메라(200)는 전면부(202)가 형성되는 몸체부(201), 촬영부(210) 및 발광부(220)를 포함한다. That is, referring to FIGS. 1 and 2, the camera 200 includes a body portion 201 on which a front portion 202 is formed, a photographing portion 210, and a light emitting portion 220.

상기 몸체부(201)는 블록 형상 등과 같은 다양한 형상으로 형성되며, 상기 전면부(202)는 상기 몸체부(201)의 전면(前面)에 형성되며, 상기 전면부(202)는 상기 기준 카메라(100)와 마주하게 된다. The body portion 201 is formed in various shapes such as a block shape, the front portion 202 is formed on the front surface of the body portion 201, and the front portion 202 is the reference camera ( 100).

상기 전면부(202)의 중앙에는 상기 촬영부(210)가 위치하며, 상기 촬영부(210)는 상기 마커(500)에 대한 촬영을 수행한다. The photographing unit 210 is located in the center of the front portion 202, and the photographing unit 210 performs photographing of the marker 500.

상기 발광부(220)는 상기 전면부(202) 상에, 상기 촬영부(210)의 주위로 일정한 간격으로 배열된다. 이 경우, 도 2에서는 상기 발광부(220)가 1열로 상기 촬영부(210)의 주위를 따라 직사각형 형상으로 배열되는 것을 도시하였으나, 상기 발광부(220)가 배열되는 열의 개수나, 배열되는 형상은 다양하게 변경될 수 있음은 자명하다. The light emitting parts 220 are arranged on the front part 202 at regular intervals around the photographing part 210. In this case, FIG. 2 shows that the light-emitting units 220 are arranged in a rectangular shape along the periphery of the photographing unit 210 in one row, but the number of rows in which the light-emitting units 220 are arranged, or the shape in which the light-emitting units 220 are arranged It is obvious that can be changed in various ways.

상기 발광부(220) 각각은, 예를 들어, LED와 같은 광원일 수 있으며, 개별 구동되어, 개별적으로 ON/OFF될 수 있다. Each of the light-emitting units 220 may be, for example, a light source such as an LED, and may be individually driven and individually turned on/off.

한편, 앞서 설명한 바와 같이, 상기 제1 및 제2 기준 카메라들(110, 120) 각각도 상기 카메라(200)와 동일하게, 전면부 상에 LED 광원이 일정하게 배열된 발광부를 포함할 수 있다. Meanwhile, as described above, each of the first and second reference cameras 110 and 120 may also include a light emitting unit in which LED light sources are uniformly arranged on the front surface, similarly to the camera 200.

본 실시예에서는, 상기 기준 카메라(100)의 초기 위치가 설정된 상태이며, 상기 기준 카메라(100)는 위치가 변화하지 않는다. In this embodiment, the initial position of the reference camera 100 is set, and the position of the reference camera 100 does not change.

그러나, 상기 복수의 카메라들(200, 300, 400)은 상기 마커(500)의 위치가 변화함에 따라 위치가 변화할 수 있으며, 따라서, 상기 카메라들의 위치는 초기 위치는 물론, 각각의 카메라들의 위치가 변화하는 경우마다 그 위치에 대한 정보를 획득하여야 한다. However, the positions of the plurality of cameras 200, 300, and 400 may change as the position of the marker 500 changes, and thus, the positions of the cameras are not only the initial positions, but also the positions of the respective cameras. Whenever is changed, information on its location must be obtained.

특히, 본 실시예의 경우, 상기 카메라들의 초기 위치와 변화된 위치를 측정하기 위한, 별도의 캘리브레이션 도구를 생략하며, 상기 기준 카메라(100)를 이용하여 상기 카메라들의 초기 위치와 변화된 위치 정보를 획득하는 것을 특징으로 한다. In particular, in the case of this embodiment, a separate calibration tool for measuring the initial position and the changed position of the cameras is omitted, and the initial position and changed position information of the cameras are obtained using the reference camera 100. It is characterized.

즉, 상기 기준 카메라(100)의 초기 위치 정보가 획득된 상태에서, 상기 기준 카메라(100)로부터 상기 복수의 카메라들(200, 300, 400) 각각의 위치, 즉 상기 기준 카메라(100)에 대한 상기 카메라들(200, 300, 400)의 상대 위치에 대한 정보를 획득하면, 상기 카메라들(200, 300, 400) 각각의 위치 정보를 도출할 수 있게 된다. That is, in a state in which initial position information of the reference camera 100 is obtained, the position of each of the plurality of cameras 200, 300, 400 from the reference camera 100, that is, with respect to the reference camera 100 When information on the relative positions of the cameras 200, 300, and 400 is obtained, position information of each of the cameras 200, 300, and 400 can be derived.

본 실시예에서는, 상기 카메라들(200, 300, 400) 각각의 상대 위치에 대한 정보 획득을 위해, 우선, 상기 기준 카메라(100)가 상기 카메라들 각각을 식별한 후, 상기 카메라들 각각의 상대 위치 정보를 획득한다. In this embodiment, in order to obtain information on the relative position of each of the cameras 200, 300, 400, first, after the reference camera 100 identifies each of the cameras, Acquire location information.

이에, 상기 카메라들(200, 300, 400) 각각은, 다른 카메라들과는 서로 구분되는 각각의 발광 패턴으로 상기 발광부(220)의 일부를 ON하여, 해당 카메라의 식별이 가능하도록 한다. Accordingly, each of the cameras 200, 300, and 400 turns on a part of the light-emitting unit 220 with a respective light-emitting pattern that is distinct from other cameras, so that a corresponding camera can be identified.

즉, 상기 기준 카메라(100)에서는, 각각의 카메라들(200, 300, 400)에 대하여 기 할당된 패턴 정보를 바탕으로, 상기 카메라들 각각에서 발광되는 패턴을 바탕으로, 어느 카메라에 해당되는가에 대하여 우선 식별한다. That is, in the reference camera 100, based on the pattern information pre-allocated for each of the cameras 200, 300, 400, based on the pattern emitted from each of the cameras, which camera corresponds to First, identify them.

이와 같이, 각각의 카메라들에 대한 식별이 종료되면, 상기 기준 카메라(100)에서는, 각각의 카메라들(200, 300, 400)에서 발광되는 기 할당된 패턴, 즉 발광부들 중 ON 상태로 발광되는 발광부들을 바탕으로, 각각의 카메라들(200, 300, 400)까지의 거리 정보를 획득한다. In this way, when the identification of each camera is terminated, in the reference camera 100, a pre-allocated pattern emitted from each of the cameras 200, 300, 400, that is, the light emission in the ON state among the light emitting units Based on the light emitting units, distance information to each of the cameras 200, 300, and 400 is obtained.

이 경우, 상기 기준 카메라(100)는, 한 쌍의 스테레오 카메라인 제1 및 제2 기준 카메라들(110, 120)을 포함하므로, 임의의 카메라에서 발광되는 발광 패턴을 인식하여, 상기 기준 카메라(100)로부터 임의의 카메라까지의 위치정보(즉, x-y-z의 3차원 좌표정보)를 획득할 수 있다. In this case, since the reference camera 100 includes first and second reference cameras 110 and 120 which are a pair of stereo cameras, the reference camera ( 100) to an arbitrary camera (ie, 3D coordinate information of xyz) can be obtained.

이상과 같이, 상기 기준 카메라(100)가 각각의 카메라를 식별하고, 각각의 카메라까지의 위치 정보를 획득하게 되면, 상기 기준 카메라(100)의 초기 설정 위치 정보와, 상기 기준 카메라(100)와 각각의 카메라 사이의 상대 위치 정보를 바탕으로, 상기 카메라들 각각의 위치 정보, 즉 기준 좌표계에 대한 절대 위치 정보를 획득하게 된다. As described above, when the reference camera 100 identifies each camera and acquires location information to each camera, the initial setting position information of the reference camera 100 and the reference camera 100 Based on the relative position information between the respective cameras, position information of each of the cameras, that is, absolute position information of the reference coordinate system is obtained.

한편, 상기 기준 카메라(100)가 상기 각각의 카메라들을 식별하거나 각각의 카메라들까지의 상대 위치 정보를 획득하기 위한, 상기 카메라들 각각의 발광 패턴의 예에 대하여 설명하면 하기와 같다. Meanwhile, an example of a light emission pattern of each of the cameras for the reference camera 100 to identify each of the cameras or to obtain relative position information to each of the cameras will be described as follows.

도 3a 및 도 3b는 도 2의 카메라에서, 초기 위치 산출을 위한 발광 패턴의 예들을 도시한 정면도들이다. 3A and 3B are front views illustrating examples of light emission patterns for calculating an initial position in the camera of FIG. 2.

즉, 도 3a에 도시된 바와 같이, 상기 카메라(200)의 발광부(210) 중에서, 제1 내지 제3 발광부들(221, 222, 223)만 선택적으로 발광(ON)되고, 다른 발광부들은 OFF될 수 있다. That is, as shown in FIG. 3A, among the light emitting units 210 of the camera 200, only the first to third light emitting units 221, 222, and 223 are selectively emitted (ON), and the other light emitting units are It can be turned off.

이 경우, 상기 제1 발광부(221)와 상기 제2 발광부(222) 사이의 거리는 'a', 상기 제1 발광부(221)와 상기 제3 발광부(223) 사이의 거리는 'b', 상기 제2 발광부(222)와 상기 제3 발광부(223) 사이의 거리는 'c'일 수 있으며, 이 경우, 상기 a, b, c는 모두 다르게 설정될 수 있다. In this case, the distance between the first light emitting part 221 and the second light emitting part 222 is'a', and the distance between the first light emitting part 221 and the third light emitting part 223 is'b'. , The distance between the second light-emitting part 222 and the third light-emitting part 223 may be'c', and in this case, a, b, and c may all be set differently.

이상과 같이, 서로 다른 이격 거리를 가지는 3개의 발광부들만 선택적으로 발광함으로써, 상기 기준 카메라(100)는 상기 카메라(200)를 식별할 수 있으며, 상기 카메라(200)까지의 거리 정보를 획득할 수 있다. As described above, by selectively emitting only three light emitting units having different separation distances, the reference camera 100 can identify the camera 200 and obtain distance information to the camera 200. I can.

즉, 상기 기준 카메라(100)는 서로 다른 이격거리를 가지는 3 점을 인식함으로써, 상기 카메라(200)와의 상대 좌표를 획득할 수 있다. That is, the reference camera 100 may acquire a relative coordinate with the camera 200 by recognizing three points having different separation distances.

상기 기준 카메라(100)는 3점이 이루는 평면을 도출하여, 상기 도출되는 평면을 바탕으로 해당 카메라의 자세에 대한 정보를 획득할 수 있다. 그리고, 상기 발광되는 3점의 위치, 즉 해당 카메라에서의 발광부들의 위치 정보와 발광부들 중 발광되는 발광부들의 위치를 바탕으로, 해당 카메라의 중앙 좌표 정보를 획득할 수 있다. 그리하여, 상기 해당 카메라의 자세에 대한 정보와, 중앙 좌표 정보를 바탕으로, 상기 기준 카메라로부터 해당 카메라까지의 상대 위치 정보를 획득할 수 있게 된다.The reference camera 100 may derive a plane consisting of three points, and obtain information on a posture of a corresponding camera based on the derived plane. In addition, the center coordinate information of the camera may be obtained based on the positions of the three points of light emission, that is, position information of the light emitting units in the camera and the positions of the light emitting units among the light emitting units. Thus, it is possible to obtain relative position information from the reference camera to the camera based on the information on the attitude of the camera and the center coordinate information.

이 경우, 도 3b에 도시된 바와 같이, 서로 다른 카메라(300)의 경우, 기 선택되어 발광되는 발광부들(321, 322, 323)은 각각의 발광부들 사이의 이격거리가 각각 a',b',c'이 되도록 발광(ON)될 수 있으며, 이와 같이, 서로 다른 카메라들(200, 300)은 서로 다른 패턴으로 발광부가 발광(ON)됨에 따라, 상기 기준 카메라(200)는 서로 다른 카메라들을 식별할 수 있다. In this case, as shown in FIG. 3B, in the case of different cameras 300, the previously selected light emitting portions 321, 322, and 323 have a separation distance between each of the light emitting portions a', b', respectively. The light emission (ON) may be performed to become ,c'. As such, the different cameras 200 and 300 have different light emitting units in different patterns, so that the reference camera 200 may use different cameras. Can be identified.

한편, 상기 도 3b의 카메라(300) 역시, 3개의 발광부가 발광됨으로써, 상기 기준 카메라(100)는 3점을 인식하여 해당 카메라까지의 상대 위치 정보를 획득하게 된다. Meanwhile, the camera 300 of FIG. 3B also emits three light emitting units, so that the reference camera 100 recognizes three points and obtains relative position information to the camera.

상기에서 발광부가 3개가 발광되는 것을 예시하여 3점을 인식하여 위치 정보를 획득하는 것을 설명하였으나, 발광부는 3개 이상이 발광될 수도 있으며, 이에 따라 3점 이상의 점을 인식하여 위치 정보를 획득함으로써, 보다 정확한 위치 정보의 획득이 가능할 수 있다. In the above, it has been described that three light-emitting units are emitted and position information is obtained by recognizing three points, but three or more light-emitting units may be emitted. Accordingly, by recognizing three or more points and obtaining location information, , It may be possible to obtain more accurate location information.

이상에서 설명한 바와 같이, 본 실시예에서는, 상기 기준 카메라(100)를 이용하여, 각각의 카메라들(200, 300, 400)의 위치 정보를 획득할 수 있으므로, 상기 각각의 카메라들의 위치가 변경되는 경우, 매번 캘리브레이션 도구를 이용하지 않으면서도 즉각적으로 상기 변경된 카메라들의 위치를 도출할 수 있다. As described above, in this embodiment, since position information of each of the cameras 200, 300, and 400 can be obtained using the reference camera 100, the position of each of the cameras is changed. In this case, it is possible to immediately derive the positions of the changed cameras without using a calibration tool every time.

이하에서는, 상기 카메라들의 위치를 도출한 이후, 상기 기준 카메라(100) 및 상기 카메라들(200, 300, 400)을 이용하여 상기 마커(500)를 추적하는 것에 대하여 설명한다. Hereinafter, after deriving the positions of the cameras, a description will be given of tracking the marker 500 using the reference camera 100 and the cameras 200, 300, and 400.

도 4는 도 1의 카메라들을 이용한 마커의 위치추적 상태를 도시한 모식도이다. 4 is a schematic diagram showing a position tracking state of a marker using the cameras of FIG. 1.

도 4를 참조하면, 상기 기준 카메라(100)는 상기 카메라들(200, 300, 400)과 마주하도록 배치되므로, 상기 마커(500)는 도시된 바와 같이, 상기 기준 카메라(100)와 상기 카메라들(200, 300, 400) 사이에 위치하게 된다. 4, since the reference camera 100 is disposed to face the cameras 200, 300, 400, the marker 500 is, as shown, the reference camera 100 and the cameras It is located between (200, 300, 400).

또한, 상기 마커(500)가 이동되는 경우에도, 상기 카메라들(200, 300, 400) 각각은 개별적으로 위치가 이동되어, 상기 마커(500)가 상기 기준 카메라(100)와 상기 카메라들(200, 300, 400) 사이에 위치하도록 한다. In addition, even when the marker 500 is moved, each of the cameras 200, 300, and 400 is individually moved, so that the marker 500 is moved to the reference camera 100 and the cameras 200. , 300, 400).

또한, 본 실시예에서, 상기 마커(500)를 추적하는 카메라들은, 상기 카메라들(200, 300, 400) 외에, 상기 기준 카메라(100)도 추적을 수행한다. In addition, in the present embodiment, the cameras tracking the marker 500, in addition to the cameras 200, 300, 400, the reference camera 100 also performs tracking.

그리하여, 상기 마커(500)를 일 측 방향에서 뿐 아니라, 타 측 방향에서도 촬영하여 위치 추적을 수행할 수 있으므로, 상기 마커(500)에 대한 식별력을 향상시키며 상기 마커(500)가 간섭에 의해 식별되지 않는 상황을 최소화할 수 있다. Thus, since the marker 500 can be photographed not only in one direction but also in the other direction to perform location tracking, the identification of the marker 500 is improved, and the marker 500 is identified by interference. You can minimize the situation that does not work.

즉, 상기 마커(500)의 추적에 있어서는, 상기 기준 카메라(100)의 제1 및 제2 기준 카메라들(110, 120) 각각은, 상기 복수의 카메라들(200, 300, 400) 각각과 동일한 기능을 수행한다. 이 경우, 상기 제1 및 제2 기준 카메라들(110, 120)의 위치 정보는 물론, 상기 복수의 카메라들(200, 300, 400)의 위치 정보는 모두 도출된 상태이므로, 상기 마커(500)에 대한 위치 추적은 가능하게 된다. That is, in the tracking of the marker 500, each of the first and second reference cameras 110 and 120 of the reference camera 100 is the same as each of the plurality of cameras 200, 300, 400 Performs a function. In this case, since the position information of the first and second reference cameras 110 and 120 as well as the position information of the plurality of cameras 200, 300 and 400 are all derived, the marker 500 Location tracking is enabled.

상기 마커(500)에 대한 위치 추적은, 상기 마커(500)의 표면에 각인되거나 형성되는 마커 패턴(510)을 상기 기준 카메라(100)의 촬영부(111, 121) 및 상기 카메라들(200, 300, 400)의 촬영부들(210, 310, 410)이 식별함으로써 수행된다. Position tracking of the marker 500 includes a marker pattern 510 imprinted or formed on the surface of the marker 500, and the photographing units 111 and 121 of the reference camera 100 and the cameras 200 It is performed by identifying the photographing units 210, 310, and 410 of 300 and 400.

즉, 상기 기준 카메라(100) 및 상기 카메라들(200, 300, 400) 중 적어도 하나 이상이 상기 마커 패턴(510)을 식별하게 되면, 도시하지는 않았으나, 상기 제어부 또는 별도의 연산부 등을 통해 상기 마커 패턴(510)을 식별한 카메라로부터 상기 마커 패턴(510)까지의 거리 및 방향 정보를 도출할 수 있으며, 기 저당된 상기 마커 패턴(510)을 식별한 카메라의 위치 정보를 동시에 이용하여, 상기 마커 패턴(510)의 위치 정보, 즉 상기 마커(500)의 위치 정보(여기서 위치정보는, 기준 좌표계에 대한 상기 마커(500)의 좌표 정보를 획득하게 된다. That is, when at least one of the reference camera 100 and the cameras 200, 300, 400 identifies the marker pattern 510, although not shown, the marker Distance and direction information from the camera that identifies the pattern 510 to the marker pattern 510 can be derived, and by simultaneously using the position information of the camera that has identified the previously stored marker pattern 510, the marker Position information of the pattern 510, that is, position information of the marker 500 (here, the position information is obtained by obtaining coordinate information of the marker 500 with respect to a reference coordinate system.

이상과 같이, 상기 기준 카메라(100) 및 상기 카메라들(200, 300, 400)을 이용하여, 상기 이동되는 마커(500)의 위치 정보를 용이하게 획득할 수 있다. As described above, by using the reference camera 100 and the cameras 200, 300, 400, it is possible to easily obtain the location information of the moved marker 500.

한편, 이상과 같이 상기 마커(500)의 위치를 추적하는 경우에는, 상기 복수의 카메라들(200, 300, 400)은 각각의 카메라들에 배열된 발광부들(220, 320, 420)을 모두 발광(ON)함으로써, 상기 마커(500)에 대하여 적외선 반사를 유도하게 된다. Meanwhile, in the case of tracking the position of the marker 500 as described above, the plurality of cameras 200, 300 and 400 emit light of all the light emitting units 220, 320, and 420 arranged in each of the cameras. By (ON), infrared reflection is induced with respect to the marker 500.

예를 들어, 상기 마커(500)의 상기 마커 패턴(510)은 적외선 반사에 의해 그 패턴이 식별되는 것으로, 상기 카메라들(200, 300, 400)의 발광부들(220, 320, 420)에서 모두 적외선 LED 광을 상기 마커 패턴(510)으로 제공하고, 상기 마커 패턴(510)으로부터의 적외선 반사광을 이용하여 상기 마커 패턴(510)을 획득하게 된다. For example, the marker pattern 510 of the marker 500 is identified by infrared reflection, and all of the light emitting units 220, 320, 420 of the cameras 200, 300, 400 Infrared LED light is provided to the marker pattern 510, and the marker pattern 510 is obtained by using the infrared reflected light from the marker pattern 510.

이 경우, 상기 기준 카메라(100)의 제1 및 제2 카메라들(110, 120) 역시, 상기 발광부들을 모두 발광하여 적외선 LED 광을 상기 마커 패턴(510)으로 제공하고, 상기 마커 패턴(510)으로부터 반사되는 적외선 반사광을 이용하여 상기 마커 패턴(510)을 획득할 수 있다. In this case, the first and second cameras 110 and 120 of the reference camera 100 also emit all of the light emitting units to provide infrared LED light as the marker pattern 510, and the marker pattern 510 The marker pattern 510 may be obtained using infrared reflected light reflected from ).

다만, 이상과 같이, 상기 마커(500)의 위치 추적을 수행하는 경우, 상기 기준 카메라(100)에 마주하도록 배치되는 상기 카메라들(200, 300, 400)의 발광부들은 모두 발광하는 것으로, 배열의 위치상, 상기 기준 카메라(100)에서는 상기 마커(500)와 동시에 상기 카메라들(200, 300, 400)로부터 제공되는 광도 제공받게 된다. However, as described above, when tracking the location of the marker 500, all the light emitting units of the cameras 200, 300, and 400 disposed to face the reference camera 100 emit light, and the arrangement At the position of, the reference camera 100 receives light provided from the cameras 200, 300, and 400 at the same time as the marker 500.

이에 따라, 상기 기준 카메라(100)가 마커를 식별하는 경우, 상기 카메라들로부터 제공되는 광에 의해, 상기 마커 식별이 어려운 문제가 발생할 수 있다. 즉, 상기 마커 패턴(510)으로부터 반사되는 반사광과, 상기 카메라들로부터 제공되는 광이 서로 구분되지 않아, 상기 카메라들 중 일부 카메라를 마커로 오인하여 마커까지의 거리 도출의 오류가 발생할 수 있다. Accordingly, when the reference camera 100 identifies a marker, a problem in which it is difficult to identify the marker may occur due to light provided from the cameras. That is, since the reflected light reflected from the marker pattern 510 and the light provided from the cameras are not distinguished from each other, some of the cameras may be mistaken as a marker and an error in deriving the distance to the marker may occur.

이와 마찬가지로, 상기 카메라들(200, 300, 400)도 상기 기준 카메라(100)로 인해 상기 마커(500)에 대한 식별 오류가 발생할 수 있다. Likewise, the cameras 200, 300, and 400 may also generate an identification error for the marker 500 due to the reference camera 100.

도 5는 도 4의 마커의 위치추적에서, 기준카메라에서 마커와 반대측에 위치한 카메라들을 식별하는 상태를 도시한 모식도이다. FIG. 5 is a schematic diagram showing a state in which cameras located opposite to the marker in the reference camera are identified in the position tracking of the marker of FIG. 4.

도 5는, 상기와 같이, 상기 카메라들(200, 300, 400)의 전면부들(202, 302, 402)에 배열되는 발광부들(220, 320, 420)이 모두 발광됨에 따라, 상기 기준 카메라(100)에서 상기 발광부들(220, 320, 420)의 발광되는 광으로 인해 상기 마커 패턴(510)으로부터 반사되는 광의 식별의 오류가 발생될 수 있다. 5, as described above, as all of the light emitting units 220, 320, 420 arranged on the front portions 202, 302, and 402 of the cameras 200, 300, 400 emit light, the reference camera ( At 100), an error in identification of light reflected from the marker pattern 510 may occur due to the light emitted from the light emitting units 220, 320, 420.

이에 본 실시예에서는, 상기 마커(500)의 표면에 각인 또는 형성되는 상기 마커 패턴(510)에 대한 정보, 즉 상기 마커 패턴(510)의 형상, 배열 등에 대한 정보를 상기 기준 카메라(100)에 제공하여, 상기 기준 카메라(100)에서 촬영되는 패턴이 상기 마커 패턴(510)에 해당되는지, 상기 카메라들(200, 300, 400)로부터 발광되는 광에 의한 것인지를 식별할 수 있다. Accordingly, in this embodiment, information on the marker pattern 510 imprinted or formed on the surface of the marker 500, that is, information on the shape and arrangement of the marker pattern 510 is transmitted to the reference camera 100. By providing, it is possible to identify whether the pattern photographed by the reference camera 100 corresponds to the marker pattern 510 or is caused by light emitted from the cameras 200, 300, and 400.

이는 마찬가지로, 상기 카메라들(200, 300, 400)이 상기 기준 카메라(100)로부터 발광되는 광원에 의해 상기 마커 패턴(510)을 식별하지 못하는 경우에도 동일하게 적용되어, 상기 마커 패턴(510)에 대한 정보, 즉 상기 마커 패턴(510)의 형상, 배열 등에 대한 정보를 상기 카메라들(200, 300, 400)에 제공하여, 상기 카메라들(200, 300, 400)에서 촬영되는 패턴이 상기 마커 패턴(510)에 해당되는지, 상기 기준 카메라(100)로부터 발광되는 광에 의한 것인지를 식별할 수 있게 한다. Likewise, the same applies to the case where the cameras 200, 300, 400 cannot identify the marker pattern 510 by the light source emitted from the reference camera 100, and thus the marker pattern 510 is applied to the marker pattern 510. Information about the marker pattern 510, that is, information about the shape and arrangement of the marker pattern 510 is provided to the cameras 200, 300, 400, and the pattern photographed by the cameras 200, 300, 400 is the marker pattern. It is possible to identify whether it corresponds to 510 or is caused by light emitted from the reference camera 100.

그리하여, 본 실시예에서는, 상기 마커 패턴(510)에 대한 보다 정확한 식별을 통해, 상기 마커(500)의 위치 정보 획득에서의 정확성을 보다 향상시킬 수 있다. Thus, in the present embodiment, through more accurate identification of the marker pattern 510, the accuracy in obtaining the location information of the marker 500 may be further improved.

도 6은 본 발명의 다른 실시예에 의한 복수의 카메라를 이용한 위치추적 시스템을 도시한 모식도이다. 6 is a schematic diagram showing a location tracking system using a plurality of cameras according to another embodiment of the present invention.

본 실시예에서의 위치 추적시스템(20)은, 상기 카메라들 각각의 전면부 상에 소정 패턴을 가지는 식별 패턴이 형성되는 것을 제외하고는, 도 1 내지 도 5를 참조하여 설명한 상기 위치 추적시스템(10)과 동일하다. 이에, 동일한 구성요소에 대하여는 동일한 참조번호를 사용하고, 중복되는 설명은 이를 생략한다. The location tracking system 20 in this embodiment is the location tracking system described with reference to FIGS. 1 to 5, except that an identification pattern having a predetermined pattern is formed on the front side of each of the cameras. Same as 10). Accordingly, the same reference numerals are used for the same components, and redundant descriptions thereof are omitted.

도 6을 참조하면, 본 실시예에서는, 상기 카메라들(200, 300, 400)의 전면부들(202, 302, 402) 상에는, 소정의 패턴을 가지도록 식별 패턴들(250, 350, 450)이 부착 또는 형성될 수 있다. Referring to FIG. 6, in this embodiment, identification patterns 250, 350, 450 are formed on the front surfaces 202, 302, and 402 of the cameras 200, 300, and 400 to have a predetermined pattern. Can be attached or formed.

이 경우, 상기 식별 패턴들(250, 350, 450)은, 상기 기준 카메라(100)에서 발광되는 광에 의해 반사되는 반사 패턴, 즉 적외선 반사패턴일 수 있다. 이에 따라, 상기 카메라들의 식별을 위해서는, 상기 기준 카메라(100)는 전면부에 배열되는 발광부를 통해 광을 상기 카메라들(200, 300, 400)로 제공하여야 한다. In this case, the identification patterns 250, 350, and 450 may be a reflection pattern reflected by light emitted from the reference camera 100, that is, an infrared reflection pattern. Accordingly, in order to identify the cameras, the reference camera 100 must provide light to the cameras 200, 300, and 400 through a light emitting unit arranged on the front side.

또한, 상기 식별 패턴들(250, 350, 450)은, 앞서 도 1 및 도 2를 참조하여 설명한 바와 같이, 3점 패턴으로 형성되며, 각각의 점들 사이의 이격거리는 서로 다르게 형성되어야 한다. In addition, the identification patterns 250, 350, and 450 are formed in a three-point pattern, as described above with reference to FIGS. 1 and 2, and the separation distances between the dots must be formed differently.

나아가, 각 카메라들에 형성되는 식별 패턴들은 서로 다른 배열을 가지며, 이렇게 서로 다른 배열을 가지는 식별 패턴의 배열 정보는 기 저장되어야 한다. 그리하여, 상기 기준 카메라(100)에서 상기 식별 패턴을 인식하여 바로 카메라들에 대한 식별을 수행할 수 있다. Furthermore, the identification patterns formed in each of the cameras have different arrangements, and the arrangement information of the identification patterns having different arrangements should be previously stored. Thus, the reference camera 100 may recognize the identification pattern and immediately identify the cameras.

한편, 상기 카메라들(200, 300, 400)에 의한 상기 마커(500)의 추적을 위해, 상기 카메라들(200, 300, 400)의 전면부들(202, 302, 402)에는, 도시하지는 않았으나, 발광부들이 배열될 수 있으며, 상기 발광부들의 발광을 통해 앞서 설명한 바와 같이 상기 마커(500)를 추적할 수 있다. On the other hand, for tracking of the marker 500 by the cameras 200, 300, 400, front portions 202, 302, 402 of the cameras 200, 300, 400 are not shown, The light-emitting units may be arranged, and the marker 500 may be tracked as described above through light emission of the light-emitting units.

이와 달리, 상기 식별 패턴(250, 350, 450)이 발광부 자체로 구성될 수 있어, 상기 각각의 카메라들(200, 300, 400)의 전면부에는 각각 3개의 발광부가 식별 패턴으로 배열되어 형성될 수도 있다. In contrast, the identification pattern (250, 350, 450) may be composed of the light emitting unit itself, so that each of the cameras (200, 300, 400) are formed by arranging three light emitting units in an identification pattern on the front side. It could be.

그리하여, 상기 카메라들(200, 300, 400)이 상기 마커(500)를 추적하는 경우, 상기 3개의 발광부들만을 발광함으로써 상기 마커(500)에 대한 추적을 수행할 수 있다. Thus, when the cameras 200, 300, and 400 track the marker 500, only the three light emitting units emit light to perform tracking on the marker 500.

또한, 상기 식별 패턴(250, 350, 450)이 발광부 자체로 구성되는 경우라면, 상기 기준 카메라(100)가 상기 카메라들을 식별하는 경우, 별도의 광을 발광하지 않으면서, 상기 식별 패턴(250, 350, 450)으로부터 발생되는 광을 인식하는 것으로 상기 카메라들에 대한 식별을 수행할 수 있게 된다. In addition, if the identification patterns 250, 350, and 450 are formed of the light emitting unit itself, when the reference camera 100 identifies the cameras, the identification pattern 250 does not emit additional light. , 350, 450), it is possible to perform identification of the cameras.

이하에서는, 도 1 내지 도 5를 참조하여 설명한 상기 위치추적 시스템(10)을 이용한 위치추적 방법에 대하여 순차적으로 설명하며, 도 6을 참조하여 설명한 상기 위치추적 시스템(20)을 이용한 위치추적 방법의 경우도 도 6에서 설명한 구성의 특징을 바탕으로 동일하게 적용될 수 있다. Hereinafter, a location tracking method using the location tracking system 10 described with reference to FIGS. 1 to 5 will be sequentially described, and the location tracking method using the location tracking system 20 described with reference to FIG. 6 The case may be applied in the same manner based on the features of the configuration described in FIG. 6.

도 7은 도 1의 위치추적 시스템을 이용한 위치추적 방법을 도시한 흐름도이다. 도 8은 도 7에서 카메라의 초기 위치를 산출하는 단계를 도시한 흐름도이고, 도 9는 도 7에서 마커의 위치를 추적하는 단계를 도시한 흐름도이다. 7 is a flowchart illustrating a location tracking method using the location tracking system of FIG. 1. FIG. 8 is a flowchart illustrating a step of calculating an initial position of a camera in FIG. 7, and FIG. 9 is a flowchart illustrating a step of tracking a position of a marker in FIG. 7.

우선, 도 7을 참조하면, 상기 위치추적 방법에서는, 상기 카메라들(200, 300, 400)의 초기 위치를 산출하고(단계 S10), 상기 산출된 카메라들(200, 300, 400)의 위치 정보와, 기 저장된 상기 기준 카메라(100)의 위치 정보를 바탕으로, 상기 마커(500)의 위치를 추적한다(단계 S20). First, referring to FIG. 7, in the location tracking method, initial positions of the cameras 200, 300, and 400 are calculated (step S10), and location information of the calculated cameras 200, 300 and 400 Wow, based on the previously stored position information of the reference camera 100, the position of the marker 500 is tracked (step S20).

보다 구체적으로, 도 8을 참조하면, 상기 카메라의 초기 위치 산출 단계(단계 S10)에서는, 상기 기준 카메라(100)에 대한 위치 정보가 기 저장된 상태에서, 상기 기준 카메라(100)의 발광부는 모두 OFF된 상태에서, 상기 카메라들(200, 300, 400) 각각에서 고유의 패턴, 즉 기 설정된 패턴으로 발광부들의 일부를 발광(ON)한다(단계 S11). More specifically, referring to FIG. 8, in the initial position calculation step (step S10) of the camera, in a state in which position information on the reference camera 100 is previously stored, all light emitting units of the reference camera 100 are turned off. In this state, each of the cameras 200, 300, and 400 emits light (ON) some of the light emitting units in a unique pattern, that is, a preset pattern (step S11).

이 경우, 상기 각각의 카메라들(200, 300, 400)에서 발광되는 발광부들은, 앞서 설명한 바와 같이, 서로 다른 이격거리를 가지는 3개일 수 있으며, 각각의 카메라별로 상기 패턴은 서로 다르게 설정된다. In this case, the number of light-emitting units emitted from each of the cameras 200, 300, and 400 may be three having different separation distances, as described above, and the pattern is set differently for each camera.

이 후, 도 8을 참조하면, 상기 기준 카메라(100)가, 상기 카메라들(200, 300, 400) 각각을 식별하고, 상기 기준 카메라(100)의 위치에 대한 상기 카메라들(200, 300, 400) 각각의 상대 위치를 산출한다(단계 S12). Thereafter, referring to FIG. 8, the reference camera 100 identifies each of the cameras 200, 300, and 400, and the cameras 200, 300, and 400) Each relative position is calculated (step S12).

상기 기준 카메라(100)는, 상기 카메라들(200, 300, 400) 각각에서 발광되는 고유의 패턴을 바탕으로 카메라들 각각을 식별하고, 한 쌍의 스테레오 카메라를 포함하는 상기 기준 카메라(100)를 이용하여 상기 3점의 발광부를 이용하여 각각의 카메라가 형성하는 평면 및 상기 카메라의 위치에 대한 정보를 획득함으로써, 상기 카메라들(200, 300, 400) 각각의 상대 위치, 즉 기준 카메라에 대한 각 카메라들까지의 상대 좌표 정보를 획득하게 된다. The reference camera 100 identifies each of the cameras based on a unique pattern emitted from each of the cameras 200, 300, and 400, and includes the reference camera 100 including a pair of stereo cameras. By using the three-point light emitting unit to obtain information on the plane formed by each camera and the location of the camera, the relative position of each of the cameras 200, 300, 400, that is, each of the reference cameras Relative coordinate information up to the cameras is obtained.

이 후, 도 8을 참조하면, 상기 기준 카메라(100)의 위치를 바탕으로, 상기 카메라들(200, 300, 400) 각각의 초기 위치를 산출한다(단계 S13). Thereafter, referring to FIG. 8, an initial position of each of the cameras 200, 300, and 400 is calculated based on the position of the reference camera 100 (step S13 ).

상기 기준 카메라(100)의 초기 위치는 기 저장되어 있으므로, 기준 좌표계로부터 상기 기준 카메라(100)까지의 상기 기 저장된 위치 정보와, 상기 기준 카메라(100)로부터 상기 카메라들(200, 300, 400) 각각까지의 상대 위치 정보를 바탕으로, 기준 좌표계로부터 상기 카메라들(200, 300, 400) 각각까지의 위치를 산출할 수 있다. Since the initial position of the reference camera 100 is previously stored, the previously stored position information from the reference coordinate system to the reference camera 100 and the cameras 200, 300, 400 from the reference camera 100 Based on the relative position information to each, a position to each of the cameras 200, 300, and 400 from the reference coordinate system may be calculated.

이러한 산출의 연산은, 별도의 제어부나 연산부를 통해 수행될 수 있다. The calculation of this calculation may be performed through a separate control unit or an operation unit.

이상과 같이, 상기 카메라의 초기 위치에 대한 산출이 종료된 후(단계 S10), 상기 마커(500)에 대한 위치 추적을 수행한다(단계 S20). As described above, after the calculation of the initial position of the camera is finished (step S10), the position of the marker 500 is tracked (step S20).

즉, 도 9를 참조하면, 상기 마커(500)의 위치 추적 단계(단계 S20)에서는, 상기 카메라들(200, 300, 400) 각각이 상기 마커(500)에 광을 제공한다(단계 S21). That is, referring to FIG. 9, in the step of tracking the position of the marker 500 (step S20), each of the cameras 200, 300, and 400 provides light to the marker 500 (step S21).

상기 카메라들(200, 300, 400)은, 모든 발광부들을 발광(ON)하여 상기 마커(500)로 광을 제공하며, 이 경우, 상기 제공되는 광은 LED 적외선 광일 수 있다. The cameras 200, 300, and 400 emit light (ON) all the light emitting units to provide light to the marker 500, and in this case, the provided light may be LED infrared light.

이 경우, 상기 카메라들(200, 300, 400) 외에, 상기 기준 카메라(100)의 제1 및 제2 카메라들(110, 120)도 상기 마커(500)로 동일한 LED 적외선 광을 제공할 수 있다. In this case, in addition to the cameras 200, 300, and 400, the first and second cameras 110 and 120 of the reference camera 100 may also provide the same LED infrared light to the marker 500. .

이 후, 도 9를 참조하면, 상기 기준 카메라(100) 및 상기 카메라들(200, 300, 400) 각각이 상기 마커(500)의 위치를 산출한다(단계 S22). Thereafter, referring to FIG. 9, each of the reference camera 100 and the cameras 200, 300, and 400 calculates the position of the marker 500 (step S22).

즉, 상기 마커(500)로 제공된 광이, 상기 마커 패턴(510)에 의해 반사되는 것을 확인하여, 상기 기준 카메라(100) 및 상기 카메라들(200, 300, 400)은 상기 마커(500)의 위치를 산출할 수 있다. That is, by confirming that the light provided to the marker 500 is reflected by the marker pattern 510, the reference camera 100 and the cameras 200, 300, 400 are You can calculate the location.

이 경우, 상기 기준 카메라(100) 및 상기 카메라들(200, 300, 400)은 상기 마커(500)까지의 위치 정보, 즉 기준 카메라나 카메라들로부터 마커까지의 위치 정보를 획득하게 되며, 별도의 제어부나 연산부 등을 통해, 상기 기준 카메라나 카메라들까지의 기준 좌표로부터의 위치 정보를 바탕으로, 상기 마커까지의 기준 좌표로부터의 위치 정보를 도출할 수 있게 된다. In this case, the reference camera 100 and the cameras 200, 300, 400 acquire position information to the marker 500, that is, position information from the reference camera or cameras to the marker. It is possible to derive the location information from the reference coordinates to the marker based on the location information from the reference coordinates to the reference camera or cameras through a control unit or an operation unit.

상기와 같은 본 발명의 실시예들에 의하면, 복수의 카메라들을 이용하여 마커를 추적함에 있어, 위치가 고정되며 카메라들과 마주하도록 배치되는 기준 카메라를 이용하여, 각 카메라들을 식별하고, 각 카메라들 사이의 상대 위치를 산출함으로써, 기준 카메라의 초기 기준 위치를 바탕으로 각 카메라들의 위치를 도출할 수 있어, 별도의 초기 위치 산출을 위한 캘리브레이션 도구를 이용하지 않으면서도, 복수의 카메라들 각각의 위치를 용이하게 도출할 수 있다. According to the embodiments of the present invention as described above, in tracking a marker using a plurality of cameras, each camera is identified by using a reference camera that has a fixed position and is arranged to face the cameras, By calculating the relative position between the cameras, it is possible to derive the positions of each camera based on the initial reference position of the reference camera, so that the position of each of the plurality of cameras can be determined without using a separate calibration tool for calculating the initial position. It can be easily derived.

즉, 상기 카메라들 중 적어도 하나가 위치가 변화하는 경우, 변화된 카메라들의 초기 위치의 산출을 위해, 상기 캘리브레이션 도구를 사용하지 않으면서, 기준 카메라를 통한 카메라들의 촬영만으로, 카메라들의 변화된 위치를 갱신하여 도출할 수 있으므로, 마커의 크기나 장애물 때문에 카메라들의 위치를 자주 변경해야 하는 위치 추적의 상황에서, 위치 추적을 위한 준비 시간을 감소시키며 사용자의 편의성을 향상시킬 수 있다. That is, when at least one of the cameras changes position, to calculate the initial position of the changed cameras, the changed position of the cameras is updated only by photographing the cameras through the reference camera without using the calibration tool. Since it can be derived, it is possible to reduce the preparation time for location tracking and improve the user's convenience in the situation of location tracking in which the location of the cameras is frequently changed due to the size of a marker or an obstacle.

특히, 일반적으로 위치추적 시스템에 사용되는 카메라들의 전면부에 복수의 발광부들이 배열된 구조를 활용하여, 상기 배열된 발광부들에서 일부만을 선택적으로 발광하여 고유의 패턴을 형성하고, 이러한 고유의 패턴을 각 카메라들마다 서로 다르게 설정함으로써, 상기 기준 카메라가 각각의 카메라를 손쉽게 식별하면서, 고유의 패턴에 대한 촬영 정보를 바탕으로, 각 카메라들 사이의 상대 위치를 용이하게 도출할 수 있게 된다. In particular, by utilizing a structure in which a plurality of light-emitting parts are arranged on the front part of cameras generally used in a location tracking system, only a part of the light-emitting parts are selectively emit light to form a unique pattern, and such a unique pattern By setting differently for each camera, the reference camera can easily identify each camera and easily derive a relative position between the cameras based on photographing information for a unique pattern.

이와 달리, 상기 카메라들의 전면부에 별도의 고유의 패턴을 형성하는 식별 패턴을 더 형성함으로써, 마찬가지로 상기 기준 카메라가 각각의 카메라를 손쉽게 식별하면서, 고유의 패턴에 대한 촬영 정보를 바탕으로, 각 카메라들 사이의 상대 위치를 용이하게 도출할 수 있게 된다. In contrast, by further forming an identification pattern that forms a separate pattern on the front side of the cameras, the reference camera can easily identify each camera and, based on the shooting information for the unique pattern, each camera It becomes possible to easily derive the relative position between them.

한편, 상기 마커에 대한 위치 추적에 있어, 각각의 카메라들과, 기준 카메라의 위치 정보가 도출된 상태이므로, 상기 마커와 이를 촬영하는 카메라 사이의 상대 위치 정보만 도출하면, 상기 마커의 위치 정보를 바로 도출할 수 있으므로, 마커에 대한 위치 추적이 매우 용이하다. On the other hand, in the location tracking of the marker, since the location information of each camera and the reference camera is derived, if only the relative location information between the marker and the camera that photographs it is derived, the location information of the marker is Since it can be directly derived, it is very easy to track the location of the marker.

특히, 수술실과 같은 환경에서 마커에 대한 추적을 수행하는 경우, 수술 도구나 장비 또는 수술 인력 등의 장애물에 의해 마커에 대한 정확한 촬영이 어려울 수 있으나, 상기 카메라들은 물론, 상기 카메라들과 마주하도록 배치된 상기 기준 카메라에서도 상기 마커에 대한 촬영을 수행하여, 상기 마커의 위치 정보를 도출할 수 있는 바, 보다 다양한 각도에서 상기 마커에 대한 촬영이 가능하여, 장애물에 대한 간섭의 영향을 최소화할 수 있다. In particular, when tracking a marker in an environment such as an operating room, it may be difficult to accurately photograph the marker due to obstacles such as surgical tools, equipment, or surgical personnel, but the cameras are arranged to face the cameras as well as the cameras. Since the reference camera is also capable of photographing the marker to derive the location information of the marker, it is possible to photograph the marker from more various angles, thereby minimizing the influence of interference on the obstacle. .

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the present invention described in the following claims. You will understand that you can.

10, 20 : 위치추적 시스템
100 : 기준 카메라 110 : 제1 기준 카메라
120 : 제2 기준 카메라 130 : 연결부
200 : 제1 카메라 300 : 제2 카메라
400 : 제3 카메라 202, 302, 402 : 전면부
210, 310, 410 : 촬영부 220, 320, 420 : 발광부
250, 350, 450 : 식별 패턴 500 : 마커
510 : 마커 패턴
10, 20: location tracking system
100: reference camera 110: first reference camera
120: second reference camera 130: connection
200: first camera 300: second camera
400: third camera 202, 302, 402: front part
210, 310, 410: photographing unit 220, 320, 420: light emitting unit
250, 350, 450: identification pattern 500: marker
510: marker pattern

Claims (15)

추적의 대상이 되며, 소정의 마커 패턴이 형성된 마커;
서로 다른 위치에 위치하며, 각각은 상기 마커를 향하는 전면부 및 상기 전면부에 고정되어 상기 마커를 촬영하는 촬영부를 포함하는 복수의 카메라들; 및
위치가 고정되며, 상기 카메라들의 전면부와 마주하도록 배치되는 한 쌍의 제1 및 제2 기준 카메라들 및 상기 제1 및 제2 기준 카메라들을 연결하는 연결부를 포함하는 기준 카메라를 포함하는 위치추적 시스템.
A marker to be tracked and having a predetermined marker pattern formed thereon;
A plurality of cameras positioned at different positions, each including a front portion facing the marker and a photographing portion fixed to the front portion to photograph the marker; And
Position tracking system including a reference camera that has a fixed position and includes a pair of first and second reference cameras arranged to face the front side of the cameras and a connection unit connecting the first and second reference cameras .
제1항에 있어서, 상기 카메라들 각각은,
상기 전면부에 복수개가 배열되는 발광부들을 더 포함하는 것을 특징으로 하는 위치추적 시스템.
The method of claim 1, wherein each of the cameras,
Position tracking system, characterized in that it further comprises a plurality of light emitting units arranged on the front portion.
제2항에 있어서, 상기 발광부들은,
상기 카메라들 각각의 초기 위치 산출시에는, 기 설정된 발광부들만 발광하여 고유의 패턴을 형성하는 것을 특징으로 하는 위치추적 시스템.
The method of claim 2, wherein the light emitting units,
When calculating the initial position of each of the cameras, the position tracking system, characterized in that to form a unique pattern by emitting only the preset light emitting portions.
제3항에 있어서,
상기 발광부들에 의해 형성되는 고유의 패턴은, 각각의 카메라들 별로 서로 다른 것을 특징으로 하는 위치추적 시스템.
The method of claim 3,
The position tracking system, characterized in that the unique pattern formed by the light emitting units is different for each camera.
제3항에 있어서,
상기 발광부들 중, 각각의 이격 거리가 서로 다른 적어도 3개의 발광부들이 발광하여 상기 고유의 패턴을 형성하는 것을 특징으로 하는 위치추적 시스템.
The method of claim 3,
A position tracking system, characterized in that at least three of the light-emitting parts, each of which have different spacing distances, emit light to form the unique pattern.
제2항에 있어서, 상기 발광부들은,
상기 마커의 위치를 추적하는 경우에는, 모두 발광하는 것을 특징으로 하는 위치추적 시스템.
The method of claim 2, wherein the light emitting units,
When tracking the position of the marker, the position tracking system, characterized in that the light emission.
제1항에 있어서, 상기 카메라들 각각은,
상기 전면부에 복수개가 기 설정된 고유의 패턴으로 배치되는 식별 패턴을 더 포함하는 것을 특징으로 하는 위치추적 시스템.
The method of claim 1, wherein each of the cameras,
Position tracking system, characterized in that it further comprises an identification pattern arranged in a plurality of preset unique patterns on the front portion.
제7항에 있어서,
상기 식별 패턴은 적외선 반사 패턴이며, 상기 기준 카메라는 상기 적외선 반사 패턴을 식별하는 것을 특징으로 하는 위치추적 시스템.
The method of claim 7,
The identification pattern is an infrared reflection pattern, and the reference camera identifies the infrared reflection pattern.
제1항에 있어서, 상기 기준 카메라는,
상기 카메라들의 전면부를 촬영하여 상기 카메라들 각각의 상대 위치를 산출하고, 상기 기준 카메라의 위치와 상기 산출된 상대 위치를 바탕으로 상기 카메라들 각각의 초기 위치를 산출하는 것을 특징으로 하는 위치추적 시스템.
The method of claim 1, wherein the reference camera,
And calculating a relative position of each of the cameras by photographing front portions of the cameras, and calculating an initial position of each of the cameras based on the position of the reference camera and the calculated relative position.
제1항의 위치추적 시스템을 이용하여, 상기 복수의 카메라들의 초기 위치를 산출하는 단계; 및
상기 카메라들의 초기 위치를 바탕으로 상기 마커의 위치를 추적하는 단계를 포함하는 위치추적 방법.
Calculating initial positions of the plurality of cameras using the position tracking system of claim 1; And
And tracking the position of the marker based on the initial positions of the cameras.
제10항에 있어서, 상기 초기 위치를 산출하는 단계는,
상기 카메라들 중 적어도 하나의 카메라의 위치가 변경되는 경우마다 수행되는 것을 특징으로 하는 위치추적 방법.
The method of claim 10, wherein calculating the initial position comprises:
The location tracking method, characterized in that it is performed whenever the location of at least one of the cameras is changed.
제10항에 있어서, 상기 초기 위치를 산출하는 단계는,
상기 카메라들 각각이 기 설정된 고유의 패턴을 생성하는 단계;
상기 기준 카메라가, 상기 카메라들 각각을 식별하고, 상기 기준 카메라의 위치에 대한 상기 카메라들 각각의 상대 위치를 산출하는 단계; 및
상기 기준 카메라의 위치를 바탕으로 상기 카메라들 각각의 초기 위치를 산출하는 단계를 포함하는 것을 특징으로 하는 위치추적 방법.
The method of claim 10, wherein calculating the initial position comprises:
Generating a preset unique pattern for each of the cameras;
Identifying, by the reference camera, each of the cameras, and calculating a relative position of each of the cameras with respect to the position of the reference camera; And
And calculating an initial position of each of the cameras based on the position of the reference camera.
제12항에 있어서, 상기 기 설정된 고유의 패턴을 생성하는 단계에서,
상기 카메라들 각각은, 상기 전면부에 배열되는 복수의 발광부들 중 기 설정된 발광부들만 발광하여 고유의 패턴을 형성하는 것을 특징으로 하는 위치추적 방법.
The method of claim 12, wherein in the step of generating the preset unique pattern,
Each of the cameras forms a unique pattern by emitting only preset light emitting units among a plurality of light emitting units arranged on the front surface.
제10항에 있어서, 상기 마커의 위치를 추적하는 단계는,
상기 기준카메라에 배열되는 복수의 발광부들, 및 상기 카메라들 각각에 배열되는 복수의 발광부들을 모두 발광하여 상기 마커에 광을 제공하는 단계; 및
상기 기준카메라 및 상기 카메라들 각각이, 상기 마커의 위치를 산출하는 단계를 포함하는 것을 특징으로 하는 위치추적 방법.
The method of claim 10, wherein tracking the location of the marker,
Providing light to the marker by emitting light from all of the plurality of light emitting units arranged in the reference camera and the plurality of light emitting units arranged in each of the cameras; And
And calculating the position of the marker by each of the reference camera and the cameras.
제14항에 있어서, 상기 마커의 위치를 산출하는 단계에서,
상기 기준카메라는, 상기 마커의 마커 패턴에 대한 정보를 바탕으로, 상기 마커와 상기 카메라들을 식별하며 상기 마커의 위치를 산출하는 것을 특징으로 하는 위치추적 방법.
The method of claim 14, wherein in the step of calculating the position of the marker,
The reference camera, based on the information on the marker pattern of the marker, to identify the marker and the cameras, the position tracking method, characterized in that to calculate the position of the marker.
KR1020190103606A 2019-08-23 2019-08-23 Position tracking system using a plurality of cameras and method for position tracking using the same KR102290218B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190103606A KR102290218B1 (en) 2019-08-23 2019-08-23 Position tracking system using a plurality of cameras and method for position tracking using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190103606A KR102290218B1 (en) 2019-08-23 2019-08-23 Position tracking system using a plurality of cameras and method for position tracking using the same

Publications (2)

Publication Number Publication Date
KR20210023431A true KR20210023431A (en) 2021-03-04
KR102290218B1 KR102290218B1 (en) 2021-08-20

Family

ID=75174993

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190103606A KR102290218B1 (en) 2019-08-23 2019-08-23 Position tracking system using a plurality of cameras and method for position tracking using the same

Country Status (1)

Country Link
KR (1) KR102290218B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116342662A (en) * 2023-03-29 2023-06-27 北京诺亦腾科技有限公司 Tracking and positioning method, device, equipment and medium based on multi-camera

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102333436B1 (en) * 2020-08-27 2021-12-01 공주대학교 산학협력단 Specimen marker with reflective surface and clip formed and tensile test system using that

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100757261B1 (en) 2005-07-08 2007-09-11 전자부품연구원 Tracking method and system for tracking with multiple point-of view
WO2008087974A1 (en) * 2007-01-16 2008-07-24 Panasonic Corporation Data processing apparatus and method, and recording medium
JP2014016657A (en) * 2010-11-01 2014-01-30 Hokkaido Univ Target position tracking device and target light-emission detection device
KR20190062722A (en) * 2017-11-29 2019-06-07 주식회사 다윈테크 Dental extraction training system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100757261B1 (en) 2005-07-08 2007-09-11 전자부품연구원 Tracking method and system for tracking with multiple point-of view
WO2008087974A1 (en) * 2007-01-16 2008-07-24 Panasonic Corporation Data processing apparatus and method, and recording medium
JP2014016657A (en) * 2010-11-01 2014-01-30 Hokkaido Univ Target position tracking device and target light-emission detection device
KR20190062722A (en) * 2017-11-29 2019-06-07 주식회사 다윈테크 Dental extraction training system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116342662A (en) * 2023-03-29 2023-06-27 北京诺亦腾科技有限公司 Tracking and positioning method, device, equipment and medium based on multi-camera
CN116342662B (en) * 2023-03-29 2023-12-05 北京诺亦腾科技有限公司 Tracking and positioning method, device, equipment and medium based on multi-camera

Also Published As

Publication number Publication date
KR102290218B1 (en) 2021-08-20

Similar Documents

Publication Publication Date Title
EP2642246B1 (en) Laser projection system and method
JP4396564B2 (en) Object monitoring method and motion tracker using the same
KR101723764B1 (en) Pose determination from a pattern of four leds
US20180240270A1 (en) Method for recording individual three-dimensional optical images to form a global image of a tooth situation
US11230011B2 (en) Robot system calibration
US20150170366A1 (en) Registration method and registration device for a position detection system
US20090143670A1 (en) Optical tracking cas system
KR101406220B1 (en) Optical tracking system and method for tracking using the same
JP4402458B2 (en) Method for determining corresponding points in 3D measurement
US20190086198A1 (en) Methods, systems and computer program products for determining object distances and target dimensions using light emitters
KR102290218B1 (en) Position tracking system using a plurality of cameras and method for position tracking using the same
US10436905B2 (en) System and method for positioning measurement
JPWO2019193859A1 (en) Camera calibration method, camera calibration device, camera calibration system and camera calibration program
US20220011750A1 (en) Information projection system, controller, and information projection method
CN116342710B (en) Calibration method of binocular camera for laser tracker
KR20130051134A (en) 3d location sensing system and method
US9804252B2 (en) System and method for measuring tracker system accuracy
US8488200B2 (en) System and method for reproducing images onto surfaces
KR20210020279A (en) Position detecting system for an object using attached markers and method for position detecting using the same
JP2005189204A (en) Three-dimensional shape measuring instrument and method
US20240003852A1 (en) Method and system for detecting characteristics of a surface portion on an aircraft
JP4858346B2 (en) Marker image identification device and marker image identification method
JPH0921612A (en) Three-dimensional position-measuring apparatus
CN114527471A (en) Non-contact type layering positioning instrument positioning method
KR20230126107A (en) Callibration method for heterogenous optical sensor and monitoring system using therewith

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right